【845.net.cn消息】OpenAI和Google DeepMind的几位现任和前任员工近日分享了一封公开信,警告先进人工智能的危险以及目前对从事人工智能技术的公司缺乏监督。
这些员工表示,人工智能开发面临许多风险,包括导致现有不平等的进一步根深蒂固、操纵和提供错误信息,以及失去对自主人工智能系统的控制,这封信称,这些风险可能导致人类灭亡。
现在或曾经在上述公司的员工在公开信中表示,人工智能公司有“强大的经济动机”来推进发展,并避免分享有关其保护措施和风险水平的信息。“我们认为不能依靠他们自愿分享它,”
公开信部分内容
信中写道:“只要政府对这些公司没有有效的监督,现任和前任员工就是少数能够让他们对公众负责的人。然而,广泛的保密协议阻止我们表达我们的担忧,除非是那些可能未能解决这些问题的公司。普通的举报人保护是不够的,因为它们侧重于非法活动,而我们关注的许多风险尚未受到监管。”
员工最终呼吁人工智能公司为公开谈论人工智能的风险提供可靠的举报人保护。其内容包括:
1、避免制定或执行协议,以防止因风险相关问题而受到批评。
2、为员工提供可验证的匿名反馈途径,以向董事会、监管机构和具有相关专业知识的独立组织提出与风险相关的问题。
3、支持公开批评的文化。在商业秘密受到保护的同时,允许员工向公众、董事会、监管机构等提出与技术相关的风险问题。
4、避免在其他流程失败后对公开分享与风险相关的机密信息的员工进行报复。
共有13名员工签署了这封信,其中包括7名前OpenAI员工、4名现任OpenAI员工、1名前Google DeepMind员工和1名现任Google DeepMind员工。OpenAI威胁员工,如果员工敢于直言不讳,就会失去既得股权,并迫使他们签署严厉的保密协议,以压制批评。
本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
本网站所提供的信息,只供参考之用。本网站不保证信息的准确性、有效性、及时性和完整性。本网站及其雇员一概毋须以任何方式就任何信息传递或传送的失误、不准确或错误,对用户或任何其他人士负任何直接或间接责任。在法律允许的范围内,本网站在此声明,不承担用户或任何人士就使用或未能使用本网站所提供的信息或任何链接所引致的任何直接、间接、附带、从属、特殊、惩罚性或惩戒性的损害赔偿。