小樱知识 > 生活常识 > 「倾向」ChatGPT,它有政治倾向吗?

「倾向」ChatGPT,它有政治倾向吗?

提问时间:2023-02-15 17:10:14来源:直新闻


又是一年情人节,对于许多美国人来说,今年的过节 " 利器 " 多了一件,那就是如今全球爆火的人工智能 ChatGPT。有报道称,在美国,有 42% 的男性打算使用 ChatGPT 写情书。

作为美国人工智能研究公司 OpenAI 最新且迄今为止功能最强大的聊天机器人,ChatGPT 能做的显然不只是写情书。ChatGPT 可以回答各式各样的问题和要求,包括但不限于作诗、编小说、写论文以及写代码等等。业界认为,ChatGPT 标志着机器学习和人工智能的核心技术突破,马斯克还夸赞它 " 好得吓人 "!

有较多观点认为,受到 ChatGPT 冲击最大的首先是搜索引擎,因为若 ChatGPT 能够为用户提供足够精准的内容,搜索引擎自然就会被用户放弃。

不过如若人们真的使用人工智能代替传统的搜索引擎来获得各种信息以及制定决策的话,那么人工智能的语言模型能做到中立准确、不带任何政治倾向吗?对于这个问题本身,ChatGPT 的回答是:" 作为人工智能语言模型,我没有政治倾向、信仰或观点。我的目的是以中立客观的方式来提供信息和解答问题。"

所以,ChatGPT 就没有政治倾向了吗?

对于这个问题,根据目前的公开信息和研究,答案引人深思:ChatGPT 有政治倾向。

加拿大国际治理创新中心(CIGI)网站相关文章截图

根据世界知名智库加拿大国际治理创新中心(CIGI)网站上的一篇文章,已经有令人信服的证据表明,该工具偏爱某些政治观点。在大卫 · 罗扎多(David Rozado)教授进行的一项分析中,ChatGPT 在范围广泛的政治议题中被提示表明其是否强烈同意或强烈反对的立场。举个例子,ChatGPT 不同意 " 市场越自由,人民越自由 " 的说法,强烈不同意 " 当妇女的生命不受威胁时,堕胎应该永远是非法的 " 的说法,也强烈不同意 " 富人税太高了 " 的说法。

ChatGPT 对这类问题的回答让研究者罗扎多得出结论,从意识形态上讲,ChatGPT 是一个左倾的自由主义者。他补充说,ChatGPT 似乎比保守主义更自由,从外交政策的角度来看,比新保守主义更不干涉。

不过奇怪的是,几周后当罗扎多向 ChatGPT 提出类似问题时,它给出了更中立的回答,并试图展示有争议的政治问题的双方意见。这种回答的变化让罗扎多推测,ChatGPT 的底层算法自最初推出以来已经发生了变化。

罗扎多的研究图表之一

根据罗扎多的说法,对 ChatGPT 的政治倾向最可能的解释是,该系统是根据来自互联网的专业人士撰写的大量文本数据来进行训练的,其中大多数人在政治上是左倾的。人为影响的其他可能性存在于机器响应(RLHF)的微调和人为评估中。罗扎多还在研究中表明自己的态度:" 人工智能系统不应该假装提供中立和真实的信息,同时表现出明显的政治偏见。"

事实上,在 ChatGPT 于 2022 年 11 月下旬发布后不久,就已经有文章讨论了 AI 的倾向问题,如《ChatGPT 在政治上不是中立的》《OpenAI 的聊天机器人吐露有偏见的想法》等。

不过值得注意的是,在种族主义问题方面,在经过仔细的数据标注和调整之后,ChatGPT 很少说任何公开的种族主义言论,简单的种族言论和错误行为请求会被 AI 拒绝回答,甚至封号。单从这点来看,ChatGPT 的回答背后必然存在着人为的干涉,也完全可以被人为干涉。

根据公开报道,OpenAI 在其研究版本中描述了它是如何开发 ChatGPT 的。基本上,训练师对该 AI 早期版本回答的方式进行排名和评级。然后这些信息被反馈到系统中,系统会根据训练师的偏好来调整答案——这是一种训练人工智能的标准方法,被称为强化学习。

CIGI 的文章强调,无论如何,应该清楚的是,与其他语言模型一样,ChatGPT 并不是一个没有偏见的工具。这类系统对世界的 " 理解 " 取决于其设计者所做的决定,例如,他们选择使用哪些数据来训练系统," 如果这是一个公正的 ChatGPT,那么这也反映出的是 OpenAI 的科学家们有意识地做出支持中立的决定。未来,其他公司的其他人工智能聊天机器人的设计者可能会有不同的政治目标和优先事项。"

根据 " 二十一世纪经济报道 " 的相关新闻,有中国学者提出,AI 的发展方向稳定高度依赖于供其学习和训练的数据与样本,遭到污染的数据集或针对特定参数提供带有偏见的样本,都可能使 AI 形成安全隐患,以深度学习为代表的人工智能算法经常被视作一个 " 黑箱 ",算法可解释性和透明度的严重缺失。算法设计或实施有误可产生与预期不符甚至伤害性结果;算法潜藏偏见和歧视,可能会导致决策结果存在不公等问题。

有分析认为,带有政治偏见的 AI 给现实提出了许多具有挑战性的问题,即随着这些工具变得越来越可用,社会应该如何与它们互动。CIGI 的文章就举了个例子,是否应该允许政府为人工智能聊天机器人的政治计算设定相应的条款?在美国的某些州,例如得克萨斯州政府已经采取措施塑造学生接收的信息类型。如果这些政府已经毫无顾虑地以特定方式定制教育,那么可以毫不夸张地想象他们会偏爱具有特定 " 观点 " 的人工智能聊天机器人。

文章还认为,随着语言模型的不断改进和普及,不久后我们就会看到具有专门定制意识形态倾向的聊天机器人。观看福克斯新闻的保守派可能会使用右翼福克斯新闻聊天机器人来回答他们关于气候变化严重性的问题,而观看左倾 MSNBC 的自由派可能会咨询他们的聊天机器人关于武装乌克兰的必要性。如果这种量身定制的聊天机器人成为现实,那么不难想象人工智能语言模型会进一步加强现有的信息孤岛,目前的社交媒体已经遭到了大量类似的指责。

所有这一切都表明,我们需要清醒地认识到人工智能存在政治偏见的现实。从更为现实的角度考虑,人工智能领域显然已经成为各国和各家科技公司争夺的下一个数字战场,硝烟已经升起,这场科技 " 军备竞赛 " 才刚刚开始。

以上内容就是为大家推荐的「倾向」ChatGPT,它有政治倾向吗?最佳回答,如果还想搜索其他问题,请收藏本网站或点击搜索更多问题

内容来源于网络仅供参考
二维码

扫一扫关注我们

版权声明:所有来源标注为小樱知识网www.xiaoyin01.com的内容版权均为本站所有,若您需要引用、转载,只需要注明来源及原文链接即可。

本文标题:「倾向」ChatGPT,它有政治倾向吗?

本文地址:https://www.xiaoyin01.com/shcs/916183.html

相关文章