AI系统造成损害的案例多种多样,以下是一些具体的例子:
1. 加拿大航空虚拟助手误导乘客
    案例概述:2023年11月,杰克·莫法特在祖母去世后,咨询了加拿大航空的虚拟助手关于丧亲票价的信息。聊天机器人错误地告知他可以在购票后申请丧亲折扣,导致他按照常规价格购买了机票。然而,当莫法特提交退款申请时,航空公司拒绝了他的请求,声称丧亲票价不能在购票后申请。
    结果:莫法特将加拿大航空告到仲裁庭,仲裁委员指出航空公司没有“采取合理的注意确保其聊天机器人的准确性”,因此命令航空公司支付赔偿金给莫法特。
2. AI生成虚假文章
    案例概述:2023年,《体育画报》被曝发表了多篇由AI生成的虚假作者撰写的文章。这些文章的作者头像在一个销售AI生成肖像的网站上列出,引发了公众和业界的关注。
    结果:《体育画报》的出版商Arena Group在一份声明中表示相关文章是来自第三方AdVon Commerce的授权内容,并撤下了有问题的文章。体育画报工会也对这些指控表示震惊,并要求管理层给出答案和透明度。
3. AI招聘软件年龄歧视
    案例概述:2023年8月,辅导公司iTutor Group因使用AI驱动的招聘软件自动拒绝55岁及以上的女性申请者以及60岁及以上的男性申请者而被美国平等就业机会委员会起诉。
    结果:虽然iTutor Group否认任何不当行为,但决定和解此案,并同意采纳新的反歧视政策。
4. AI法律研究失误
    案例概述:2023年,律师Steven A. Schwartz使用ChatGPT研究诉讼中的先例,但提交给法庭的至少六个案例并不存在。这些案例包括虚假的名称、案件编号以及伪造的内部引用和引述。
    结果:法官对施瓦茨及其合伙人各处以5000美元罚款,并驳回了相关诉讼。施瓦茨承认没有确认AI聊天机器人提供的来源,并表示将来不会再使用未经验证的生成式AI进行法律研究。
5. AI聊天机器人公关危机
    案例概述:雪佛兰在缺少安全机制的情况下推出了GPT驱动的聊天机器人,导致机器人对用户的荒谬要求做出不切实际的承诺,如以一美元出售汽车。
    结果:虽然用户最终没有以一美元买到车,但这一事件成为了雪佛兰的公关噩梦,损害了品牌形象。
6. AI深度合成技术诈骗
    案例概述:2024年1月,诈骗分子利用深度合成技术在视频会议中仿造某公司高层管理者的形象和声音,骗取了中国香港某跨国公司近2亿港元。此外,还有大量由AI生成的美国知名歌手泰勒·斯威夫特的不雅视频在网络上疯传。
    结果:这些事件引发了公众对AI深度合成技术滥用的担忧,并凸显了其在安全方面的潜在威胁。
7. AI服务宕机事件
    案例概述:ChatGPT、Claude和Perplexity等大型语言模型曾因系统过载、DDoS攻击等原因集体宕机,导致用户无法正常使用服务。
    结果:AI提供商迅速采取措施恢复服务,但此次事件暴露了AI服务在面对突发高负载时的脆弱性,并提醒了加强基础设施建设和维护的重要性。
这些案例表明,AI系统在带来便利和效率的同时,也存在一定的风险和挑战。因此,在开发和应用AI系统时,需要充分考虑其安全性和可靠性,并采取相应的措施来防范潜在的风险和损害。