近期,由美国人工智能研究室OpenAI 开发的全新聊天机器人ChatGPT火爆全网,但其负面效应也引发广泛讨论。

“ChatGPT正在以一种全新的方式挑战着所有人。”近日,欧洲议会AI伦理领域的顾问安娜·费南德尔在欧盟委员会官网发文指出,“生成型人工智能(Generative AI)系统创造了机会,同时也让我们面临具有历史意义的十字路口——究竟是人工智能控制人类,还是人类控制人工智能。”

生成型人工智能指的是能够生成新颖内容的人工智能,而不是简单地分析或处理现有数据。生成型人工智能模型能够产生文本和图像,包括博客文章、程序代码、诗歌和艺术品。安娜·费南德尔认为,ChatGPT和其他生成型人工智能系统的发展将产生新的道德和法律问题。人工智能模型的学习基于历史数据进行,这个过程很可能存在不必要的“偏见”,进而可能导致社会排斥、歧视以及其他违规行为。一些个体同意自己的数据在某种情况下被使用时,可能不会意识到自己的数据与其他数据结合时算法可能会创造出违背常理的见解。这对公司和各国政府来说,代价都很大,可能会使公司撤回投资,或者导致主体声誉受到损害。例如,基于OpenAI的GPT-3医疗聊天机器人在测试时,提出了建议患者自杀的措施。

以ChatGPT为代表的生成型AI系统在道德和法律方面的违规行为,通常发生得很微妙也很突然。安娜·费南德尔认为,虽然这些违规行为可能会小到无法察觉,但是极有可能造成指数级的损失。比如深度造假,在实践中,生成型人工智能会被用来操纵视频或照片中的面孔或声音。需要承认的是,基于API的生成型人工智能模型本身并没有风险,但它们的使用方式和训练的数据会使它们具备风险。

ChatGPT的强大功能也隐含不少法律风险。北京盈科(上海)律师事务所互联网法律事务部主任谢连杰接受采访时表示,ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然有泄露风险。他表示,人工智能生成的信息并不总是准确的。“ChatGPT常常出现‘一本正经地胡说八道’的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意‘训练’人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身和财产安全。”

泰和泰(重庆)律师事务所高级合伙人朱杰认为,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施,可能会导致侵权。朱杰解释说,这类人工智能主要是通过挖掘人类日常交流以及文本来进行统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接复制到自己的数据库中,并在此基础上修改、拼凑,极有可能侵害他人的著作权。

关于ChatGPT风险的热议已经引起了监管者的注意。

“我对人工智能以及人工智能推动的社会进步感到兴奋,但也为其不受限制和不受监管感到担忧。”美国众议院科学委员会民主党众议员刘云平近日表示。

据媒体报道,今年1月,OpenAI首席执行官萨姆·奥特曼前往国会山,会见参议员马克·华纳、罗恩·怀登、理查德·布卢门撒尔和众议员杰克·奥金克洛斯等议员。怀登的一名助手表示,怀登向奥特曼施压,要求确保人工智能不包含会导致住房或工作偏见等现实世界的歧视问题。

在应对ChatGPT快速发展带来的风险方面,安娜·费南德尔认为,关键是各国监管机构要有可用的风险评估框架,并任命一个负责任的机构。此外,人工智能伦理框架的建立将为所有部门创造一个良好的创新环境。

来源:人民邮电报