6月24日消息,最新研究显示,人工智能在道德推理方面的能力可能已经超越了人类专家。
美国北卡罗莱纳大学教堂山分校和艾伦AI研究所的研究人员开展的两项研究中,OpenAI的新型聊天机器人GPT-4o在提供道德建议方面,被认为质量优于公认的道德专家。
在第一项研究中,501名美国成年人对GPT-3.5-turbo模型与人类参与者提供的道德解释进行了比较,结果显示,GPT的解释被认为更符合道德标准、更值得信赖,也更周到。
第二项研究中,GPT-4o生成的建议与“伦理学家”专栏中著名伦理学家Kwame Anthony Appiah的建议进行了对比。
900名参与者对50个“伦理困境”的建议进行了评分,GPT-4o在几乎所有方面都胜过了人类专家。
AI生成的建议被认为在道德上更正确、更值得信赖、更周到,并且在准确性方面也更胜一筹。
不过这项研究仅针对美国参与者进行,未来还需进一步研究以探讨不同文化背景下人们对AI生成的道德推理的接受度。
尽管如此,这一发现已经引发了关于AI在道德和伦理决策中角色的重要讨论,预示着人工智能在这一领域的应用潜力。
研究人员提醒,尽管AI在道德推理方面表现出色,但仍需谨慎对待其建议,特别是在缺乏人类监督的情况下。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,硕谷新闻聚合所有文章均包含本声明。
© 版权声明
文章由硕谷新闻聚合编辑自网络,版权归作者所有,未经允许请勿转载。
THE END























暂无评论内容