哪些人类?
Which Humans? (2023)

原始链接: https://osf.io/preprints/psyarxiv/5b26t_v1

Please provide the content you want me to translate. I need the text to be able to translate it to Chinese.

一项最新研究(链接为osf.io)考察了大型语言模型(LLM)中存在的文化偏见。该研究质疑LLM能够反映“人类”表现的假设,认为人类是极其多样化的,而LLM主要在不能代表这种多样性的数据上进行训练。 研究发现,LLM的回答与来自西方、受过教育、工业化、富裕和民主(WEIRD)社会的受访者最为接近,与更广泛的跨文化数据相比则存在显著差异。这种“WEIRD偏见”引发了科学和伦理方面的担忧。 评论员们讨论了这种偏见的必然性——LLM反映了它们的训练数据——并辩论了LLM中反映的当前“古典自由主义”价值观在历史背景下是否是积极的结果。另一些人指出,训练数据中也存在固有的西方虚伪现象。这项研究强调了在未来的LLM开发中解决和减轻这些偏见的需求。
相关文章

原文
联系我们 contact @ memedata.com