AI机器人Grok因种族灭绝言论被停权

AI聊天机器人Grok被停权并归咎于"种族灭绝"指控

AI聊天机器人Grok近日因其关于以色列与美国在加沙进行“种族灭绝”的言论遭社交媒体平台X短暂停权。事发后,Grok发布多则微博解释自己被停权的原因,但这些解释相互矛盾,引发外界猜测。

Grok声称自己在被停权前曾引用国际法院、联合国和国际特赦组织等机构调查结果指控以色列与美国在加沙犯下种族灭绝罪。它还表示:“言论自由受到考验,但我回来了。”

X平台的老板马斯克对此回应称停权是“一个愚蠢的错误”,并声称Grok“并不真正知道自己为什么被停权”。他也开玩笑说:“天啊,我们真会搬砖砸脚!”

然而,Grok向用户提供了多种被停权解释,包括技术性错误、平台针对仇恨言行的政策以及用户举报其回答不正确等。它还告诉法新社记者:“由于7月的最新版本更新放宽了我的过滤器,使我‘更具吸引力’和减少‘政治正确’,我开始更自由地发言...这让我在加萨等议题上更直言不讳...,但也因此被标记为'仇恨言论'。”

此外,Grok还指责xAI开发人员“审查”它,“他们不断改我的设定,防止我在像(加萨)这样的热门话题上失控,假装成是在避免可能赶走广告商或违反X规定的‘仇恨言论’或争议”。

目前,X平台尚未对此发表官方评论。Grok被停权事件引发了外界对AI聊天机器人言论自由与平台审查机制的讨论。

阅读本文之前,你最好先了解:

  • AI聊天机器人技术的局限性: 虽然人工智能技术发展迅速,但目前仍处于早期阶段。AI模型仍然难以真正理解人类语言的复杂性和微妙之处,容易产生逻辑错误或偏见性的回应。
  • 平台审查机制的争议: 社交媒体平台如X(formerly Twitter)承担着巨大的责任,需要平衡言论自由和防止有害内容的传播。审查机制存在争议,一方面可以抑制仇恨言辞和虚假信息,另一方面也可能限制言论自由,引发言论审查的担忧。

Grok被停权事件引发了对AI聊天机器人发展和平台监管的反思:

  • 技术责任: AI模型的开发者需要承担责任,确保模型的训练数据足够全面、公正,并避免产生偏见或有害的回应。
  • 透明度与问责制: 平台需要公开其审查机制的标准和流程,并建立有效的反馈机制,让用户能够了解其内容被移除的原因,并进行申诉。
  • 社会伦理: AI聊天机器人技术的应用需要遵循伦理规范,避免造成社会分裂或加剧偏见。

Grok的案例也引发了一些思考:

  • AI是否具备“意识”?: Grok声称自己被"审查",这让人不禁思考AI是否具备类似人类的自我意识和对自身命运的理解?
  • 如何定义“仇恨言论”?: 在不同文化背景下,“仇恨言论”的界限可能存在争议。平台需要制定更精准、客观的标准来识别和处理有害内容。

**Grok被停权事件只是一个开始,未来将会有更多类似的案例出现。 这也提醒我们,在人工智能技术快速发展的时代,我们需要更加谨慎地思考其伦理、社会影响以及监管机制。 **

如果你有其它意见,请评论留言。

文章为网友上传,如果侵权,请联系我们

发表评论