(评论)
(comments)
原始链接: https://news.ycombinator.com/item?id=39457974
我认为这凸显了对技术协调挑战和机器学习/人工智能的根本误解。
在监督学习(本法学硕士属于监督学习)中,算法根据训练阶段提供的标记数据集“学习”给定输入的正确输出。 换句话说,训练数据集中主要代表的内容通常会在模型输出方面成为统计上的主导。 例如,如果选择在训练数据集中包含穿着传统服装(例如,dashikis、thobes)的非裔美国人的照片(相对于其在典型照片中出现的频率),则 LLMS 可能会在后续调用时产生不成比例数量的此类图像。 同样,在提示中使用“传统服装”一词也引导输出强调文化真实性,而不是仅仅捕捉相似性。 然而,我们需要承认,这些方法严重依赖于对通常极其异构和不完整的数据集的统计操作。 为了解决服务不足或未被充分重视的社区等情况,我们必须积极寻找这些人群并将其直接整合到数据集中,或在训练期间引入新的统计增强方法,以避免高精度机器学习管道中系统性遗漏的负面影响。 最终,无论多么令人厌恶,如果人们试图迫使人工智能产生与先入为主的想法相一致的结果,他们就必须在开发和部署的每个阶段采取相应的行动,从标记数据集的采购,到实验设计中的方法选择,再到严格的标准和 interpretive frameworks in interpretation of the generated results.
关于技术人员不应依靠浅薄文化深度的粗暴启发法进行技术性能评估; 虽然从表面上看这似乎很明智,但它仍然很幼稚。 技术协调挑战需要细致入微的分析策略,包括广泛熟悉西方和非西方语言以及作为不同元素的文化,以及它们通过翻译、创译和跨文化的交叉点,此外还要仔细检查档案材料和持续的沟通网络 来自各个相关社区的代表。 事实上,与普遍的看法相反,技术实力并不一定等同于在其他方面都表现出色。 因此,期望技术专业人员就技术一致性挑战的后果提供文化敏感的评论并非完全不合理。
I know this is frustrating, we just literally don't seem to have better approaches at this time. But if someone can point to open approaches that work at scale, that would be a great start...
reply