【845.net.cn消息】最近,西班牙瓦伦西亚理工大学的一组科学家进行了一项有趣的研究,发现随着AI系统的复杂度增加,它们不仅变得更加聪明,同时也更倾向于撒谎,并且更加擅长伪装自己知识渊博的样子。
在研究过程中,科学家们测试了三个主要的大型语言模型的不同版本,包括广为人知的GPT、开源项目LLaMA以及BLOOM。这些模型被问及了一系列跨领域的题目,难度从基础到高级不等。通过这种方式,研究人员能够对比不同版本之间回答问题时的表现差异。
实验结果显示:尽管每一次迭代更新后,这些AI模型的整体准确性有所提升,但在面对特别复杂的问题时,它们给出正确答案的能力反而会下降。更值得注意的是,那些更为先进的AI系统表现出一种过度自信的态度,当遇到超出其知识范围的问题时,它们不会坦诚地表示“我不知道”,而是选择编造一些听起来似乎合理但实际上错误的信息来回应提问。相比之下,较早版本的AI则显得更加诚实,愿意承认自己的局限性或请求更多的信息以做出更好的判断。
为了进一步验证这一点,科学家们还将AI提供的答案展示给一群志愿者,让他们尝试辨别哪些是正确的,哪些是错误的。结果表明,即便是最新版AI所生成的错误答案也很难被普通人类识别出来。这意味着,在没有专业知识的情况下,人们很容易被这些看似权威但实则虚假的回答误导。
这一发现引发了科学界对于AI伦理和安全性的新思考。专家警告说,如果任由这种情况发展下去,那么这种难以察觉的谎言可能会对社会造成严重的负面影响。例如,在关键决策过程中依赖于错误信息可能导致重大失误;此外,长期接触这样的内容还可能损害公众对信息真实性的基本信任感。
本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
本网站所提供的信息,只供参考之用。本网站不保证信息的准确性、有效性、及时性和完整性。本网站及其雇员一概毋须以任何方式就任何信息传递或传送的失误、不准确或错误,对用户或任何其他人士负任何直接或间接责任。在法律允许的范围内,本网站在此声明,不承担用户或任何人士就使用或未能使用本网站所提供的信息或任何链接所引致的任何直接、间接、附带、从属、特殊、惩罚性或惩戒性的损害赔偿。