通过资助"人工智能道德"研究,OpenAI正在涉足复杂的领域。OpenAI的非营利机构OpenAI向杜克大学(DukeUniversity)的研究人员提供了一笔名为"人工智能道德研究"(ResearchAIMorality)项目的研究经费。这项工作隶属于一项更大的计划,该计划在三年内提供100万美元,用于研究如何让人工智能具有道德意识。
该项目由实践伦理学专业教授沃尔特-辛诺特-阿姆斯特朗(WalterSinnott-Armstrong)和雅娜-斯凯奇-博格(JanaSchaichBorg)领导,两人在人工智能如何处理道德决策方面的工作都得到了认可。辛诺特-阿姆斯特朗(Sinnott-Armstrong)在哲学领域大名鼎鼎,他深入研究了应用伦理学、道德心理学和神经科学等领域。他在杜克大学的团队致力于解决现实世界中的两难问题,例如设计算法来决定谁应该接受器官移植,权衡公众和专家的观点来完善这些系统的公平性。
由OpenAI资助的项目旨在创建一种算法,预测人类在医学、法律和商业等领域的道德判断。虽然这听起来很有希望,但历史表明这并非易事。以艾伦人工智能研究所的AskDelphi为例,它旨在提供道德答案。虽然它能够解决简单的两难问题,但只需改变问题的措辞,就很容易被诱骗做出道德上可疑的回答。
局限性源于人工智能的运行方式:机器学习模型根据训练数据预测结果,而训练数据往往反映了主流文化的偏见。这一问题引发了人们对人工智能能否真正"合乎道德"的极大担忧,尤其是在不同社会的道德观各不相同,且缺乏普遍接受的框架的情况下。
人工智能能否以有意义的方式与人类价值观保持一致,甚至是否应该保持一致,仍然是一个悬而未决的问题。但是,如果能做到这一点,其影响可能是深远的,它将影响我们在道德决策中如何信任机器。现在,世界可能要等到2025年,也就是这项基金结束时,才能知道这个"道德人工智能"项目是否取得了突破性进展。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】