原文标题:Global perspectives on AI bias: Addressing cultural asymmetries and ethical implications
中文摘要:印度观察家研究基金会发表历史、文学和文化领域的学者Siddharth Yadav题为《人工智能偏见的全球视角:应对文化不对称现象和伦理问题》的文章称,随着ChatGPT等人工智能应用取得重大商业成功,人工智能、大型语言模型和生成式人工智能成为了人们耳熟能详的科技术语,也让生成式人工智能吸引了大量投资。在这股浪潮下,全球主要大型科技企业都推出了生成式人工智能系统,积极抢占这一领域的主导地位。然而,人工智能的发展也受到版权侵权、黑盒算法(black-box algorithms)、偏见等问题的困扰。
文章强调,人工智能(特别是生成式人工智能)存在着文化偏见,亟需破除。人工智能的偏见问题已纳入于2024年8月1日正式生效的欧盟《人工智能法案》。根据该法案,人工智能偏见有可能带来不同程度的社会和经济危害,需要对人工智能系统进行相应的监管。
文章指出,有关人种、性别与民族方面的偏见因受到社会人士及决策者的严重关切,相关内容已大幅减少。然而,人工智能系统输出内容中的隐性文化偏见依然存在。鉴于人工智能发展日益与国家的经济和政治策略相绑定,人们应重视由人工智能系统训练数据集偏差引发的文化偏见。如果没有适当的监督,一些有数百万用户的热门人工智能系统可能会加剧全球的文化不对称。
文章建议,为解决有关偏见,决策者和国际性人工智能合作平台(如人工智能全球合作组织)可促进各国家和地区的人工智能开发人员、研究人员及机构之间的跨文化合作,这种合作对于确保人工智能发展的公平性至关重要。与此同时,为平衡西方国家的人工智能伦理话语权,非西方国家可以结盟,或通过联合国教科文组织等平台,确保人工智能标准与不同的文化和社会规范保持一致。此外,决策者和有关平台还可利用具有文化适应性的框架指导涉及人工智能的政策讨论,以确保人工智能系统能在不同的文化背景下合规运行。(编译:秦川、江明明)