Bez względu na język, jakiego używasz, modele językowe Llama-2 używają angielskiego jako języka pojęciowego, który pomaga im rozumieć i przetwarzać inne języki. Tak wynika z badania przeprowadzonego w lutym 2024 r. przez naukowców z École Polytechnique Fédérale de Lausanne (EPFL).
Inaczej mówiąc, Llama-2, algorytm sztucznej inteligencji opracowany przez firmę Meta (dawniej Facebook), „myśli” po angielsku. Najpierw tłumaczy sobie wszystko na angielski wewnętrznie, a dopiero później odpowiada w innym języku.
Llama-2 ma więc tzw. anglocentryczne uprzedzenia, co oznacza, że faworyzuje język angielski nad innymi językami. To uprzedzenie wynika z tego, że model został w dużej mierze wytrenowany na materiałach w języku angielskim.
Jakie to ma znaczenie? Model może lepiej rozumieć i generować dokładniejsze odpowiedzi w języku angielskim niż w hiszpańskim czy polskim.
Czyli lepiej rozmawiać z modelem od razu po angielsku, ponieważ odpowiedzi mogą być wtedy dokładniejsze. Czy inne duże modele językowe jak ChatGPT (Openai) lub Gemini (Google) też mają podobne wady? Prawdopodobnie tak, ale nie mamy potwierdzenia w postaci badań naukowych.
Komentarze