近期,人工智能领域的热门聊天机器人chatgpt遭遇了一起严重的隐私投诉事件,这次事件源自欧洲,由挪威的一名个人提出,并得到隐私权益倡导组织noyb的支持。该投诉的核心在于,chatgpt生成了一条关于该个人因谋杀两名子女并企图杀害第三名子女而被定罪的虚假信息,这对受害者的名誉造成了极大的损害。
与以往关于chatgpt生成错误个人信息的投诉不同,此次事件中的虚假信息极具诽谤性,不仅触及了个人的名誉权,也引发了公众对ai技术在数据准确性方面的广泛担忧。根据欧盟的《通用数据保护条例》(gdpr),欧洲公民有权要求数据控制者更正关于他们的错误个人信息。然而,目前chatgpt并未提供机制让个人能够纠正ai生成的错误信息,通常只是选择屏蔽相关提示。
noyb指出,gdpr明确规定个人信息必须准确无误,而chatgpt的行为显然违反了这一原则。noyb的数据保护律师joakim söderberg强调,仅仅在chatgpt界面底部显示一条小字声明,提醒用户ai可能会出错,是远远不够的。他认为,传播虚假信息并在最后加上免责声明,并不能免除ai开发者在gdpr下的责任。
此次投诉中,chatgpt生成的虚假信息是关于arve hjalmar holmen的,声称他因谋杀自己的两个儿子而被判处21年监禁。尽管chatgpt正确地给出了holmen有三个孩子以及他们的性别和他所在的城市,但ai却编造了如此可怕的虚假故事。noyb表示,他们无法确定为什么chatgpt会为这个人生成如此具体但虚假的历史,推测可能是用于训练该工具的数据集中包含了许多关于类似事件的描述。
值得注意的是,尽管在对chatgpt的基础ai模型进行更新后,该聊天机器人已停止生成关于holmen的危险虚假信息,但noyb和holmen仍然担心,关于他的错误和诽谤性信息可能仍然保留在ai模型中。这种担忧并非没有根据,因为chatgpt还存在其他制造法律上有问题的信息的实例,如错误地指控一名澳大利亚上校涉及贿赂和腐败丑闻,以及错误地将一名德国记者称为儿童虐待者。
为了维护个人权益和gdpr的严肃性,noyb已向挪威数据保护机构对openai提起投诉。他们希望该监管机构能够决定其有能力进行调查,因为noyb将投诉目标对准了openai的美国实体,认为其爱尔兰办公室并非唯一负责影响欧洲人的产品决策的主体。然而,此前noyb支持的另一项针对openai的gdpr投诉在奥地利提起后,却被监管机构转交给了爱尔兰的数据保护委员会(dpc)处理。
爱尔兰数据保护委员会助理首席通讯官risteard byrne表示,在收到奥地利监管机构转交的投诉后,dpc已正式开始处理该投诉,但目前仍在进行中。他并未透露dpc对chatgpt“幻觉”问题的调查预计何时结束。这一事件再次引发了公众对ai技术在数据保护和隐私权益方面的关注,也提醒了ai开发者在追求技术创新的同时,必须严格遵守相关法律法规,确保用户数据的准确性和安全性。
此次事件也引发了关于大型语言模型“幻觉”问题的讨论。大型语言模型如chatgpt的基础模型,本质上是进行大规模的下一个词预测。由于训练数据集中可能包含各种复杂和多样的信息,因此ai在生成文本时可能会出现“幻觉”,即编造出并不存在的信息。这要求ai开发者在训练和优化模型时,必须更加注重数据的准确性和多样性,以减少“幻觉”问题的发生。
总的来说,chatgpt此次面临的隐私投诉事件再次提醒了我们,ai技术在带来便利和创新的同时,也伴随着一系列挑战和风险。作为ai开发者和用户,我们必须共同努力,加强监管和自律,确保ai技术的健康发展和用户的合法权益得到充分保障。













