新增工具赋予了用户更多的信息管理权限,然而效果却杯水车薪。

有可能掌握详细的用户个人信息,但遇到无法回答的问题时则可能会编造错误的答案来回答。随着 发布的生成文本式聊天机器人在过去六个月中一炮而红,系统使用从网络上提取的数据进行优化训练的风险变得尤为明显。

世界各地的数据监管机构正在调查是如何收集用于训练其大型语言模型的数据的,其提供的关于用户和其他法律问题的答案准确性关乎着生成文本系统的使用。在意大利暂时禁止使用后,欧洲的数据监管机构已经联合起来重点关注,加拿大也在调查该技术背后可能存在的隐私风险。

欧洲的《通用数据保护条例》要求公司和组织阐明使用用户个人信息的合法理由,并允许用户访问相关信息,告知用户其个人信息的使用方式,并要求纠正错误。在某些情况下,《条例》可以要求企业和组织删除某些类型的数据。用户个人信息在训练数据中的使用方式一直是欧盟监管机构关注的领域。

在人们试验聊天机器人,并向它们寻问有关生活和朋友相关信息的过程中,浮现出一系列的潜在问题。发出警告,提示用户可能会提供不准确的信息,人们发现它杜撰了工作和爱好的信息。它编造了虚假的报纸文章,连人类作者都怀疑文章的真实性。此外,还声称某位法学教授涉及性骚扰丑闻,并称澳大利亚一名市长陷入贿赂丑闻—该市长正准备以诽谤罪提起诉讼。

担心数据如何被使用的不仅仅是个人。三星已经禁止员工使用生成式人工智能工具,部分原因是担心数据存储在外部服务器上,以及公司机密最终可能被透露给其他用户。(几起数据泄露事件涉及版权和知识产权。)

为了应对审查—特别是来自意大利数据监管机构的审查,对其服务进行了修改,现在已经被重新允许进入该国市场,公司发布了工具,规范了流程,让人们至少能够对部分数据进行更多的控制。以下是新增工具的使用方法。

从 中删除用户的信息数据

和GPT-4基于统计学生成人类样本答案,它根据看到的人类作者写的数百万个句子的例子,预测哪些词语更可能跟随其他词语。对大型语言模型进行了训练,但对其所训练数据却一直秘而不宣,因此除了公司自己以外,没有人确切知道它在这个过程中抓取了多少网络数据(包括人们的个人信息)。

表示,其大型语言模型是基于三种信息来源进行训练的:从网络获取的数据,获取的授权数据,以及用户在产品使用过程中输入的信息,其中可能包括个人信息。“互联网上的大量数据与人有关,因此我们的训练信息确实会包含个人信息,”在一篇帖子中解释道,并表示公司正在采取措施缩减收集数据的规模。

现已推出个人数据删除申请表,允许用户(主要是欧洲用户,也有日本用户)要求从的系统中删除个人信息。这在关于公司如何开发语言模型的博客文章中有所描述。

申请表看上去主要是为了申请从提供给用户的答案中删除个人信息,而不是从其训练数据中删除信息。表单要求提供申请人的姓名、电子邮件、所在的国家、为自己申请还是代他人申请(例如律师代表客户提出申请)、是公众人物还是普通公民。

接着,会要求申请人提供其系统涉及展示个人信息的相关证据,包括提供导致个人信息被提及的“相关提示”,以及可用于佐证的屏幕截图。该表格表示“为了能够正确处理您的请求,我们需要明确的证据表明该模型拥有基于提示而展示的相关数据信息。”此外,申请表还要求申请人确保提供的申请信息是准确无误的,并且要求申请人理解可能出现在某些情况下无法删除数据的情况。该公司表示,在对申请人的删除数据请求做出决定时,将平衡“隐私和表达自由”。

数字版权非营利组织 Now的高级政策分析师 表示, 最近几周虽然做出了一定改进,但只是处理数据保护方面的表象问题。说到“他们仍然没有采取任何措施来解决更复杂、更系统的问题,即如何使用个人数据来训练这些模型。我希望这个问题不会沉寂,尤其是在欧盟数据保护委员会针对建立了专案组之后。”

的帮助中心页面写到,“个人也可能有权访问、更改、限制、删除或转移可能包含在我们的培训信息中的个人信息。”为此,建议用户通过向其数据保护部门员工发送电子邮件。那些已经向 发起申请的人对其回应并不满意。意大利的数据监管机构表示,声称目前“技术上不可能”纠正不准确信息。

如何删除您在上的聊天记录

chatgpt 能抓取最新数据吗_抓取数据是什么意思_实时数据抓取

用户应该谨慎对待透露给的信息,尤其是考虑到有限的数据删除选项。默认情况下,用户与的对话信息是可以被用作未来大型语言模型的训练数据的。这意味着至少在理论上,这些信息可以再生成为人们未来问题的回答。4月25日,更新了设置,允许任何人拥有数据删除的权利,无论他们身在何处。

登录后,点击屏幕左下角的用户资料,选择设置中的数据控制,就可以在此处关闭聊天记录和训练。表示,关闭聊天记录意味着用户输入的对话数据“将不会用于模型训练和模型优化。”

因此,用户在中输入的任何信息,比如个人数据、生活和工作的信息,都不应该在 大型语言模型的未来迭代中复现。 表示当聊天记录被关闭时,所有对话将被保留30天“以监控滥用行为”,此后将被永久删除。

当数据历史记录关闭时,会在侧边栏中放置一个按钮,点击后可再次启用聊天历史记录,而这与隐藏在设置菜单中的“关闭”设置形成鲜明对比。

文章译自:

当前,人工智能生成内容( ,AIGC)已经越来越具备相当的可信度和精准度,但包含数字泄露、知识产权保护、侵权欺诈等在内的数字风险也随之而来。天际友盟通过自身多年来深入的AI技术研究和数字风险防护能力,充分分析了AIGC带来的数字风险场景特写,正式推出具有针对性的—人工智能生成内容数字风险防护服务,AIGC DRP(AIGC Risk )。

AIGC DRP能够覆盖当前国内与国际上主流的人工智能生成内容平台,拥有完善的服务流程,能够协助客户进行风险安全验证、培养风险意识、完善应急机制等AIGC相关的数字风险防护。

欢迎联系我们,

获取更多AIGC DRP服务信息。

联系邮箱:

电话:

往期回顾

关于DRP数字风险防护

随着企业的数字化进程,对DRP( Risk )数字风险防护管理的需求,正与日俱增。企业的数字足迹、数字资产、甚至高管的个人形象,都可能成为不法分子的攻击目标。保护关键数字资产与数据免受外部威胁,提升在线业务的运营稳健性,其价值毋庸置疑。DRP数字风险防护,是与企业数字化转型配套的业务安全解决方案。

天际友盟致力于为企业提供涵盖识别、监测、响应、恢复全生命周期的数字风险管理。通过多种威胁情报来源汇聚、多维度内容识别与分析引擎、专业威胁与风险分析能力、覆盖全球平台的关停处置网络、专业的法律服务支持团队、SaaS化的服务支撑平台,天际友盟将多种专业能力有机结合,构建了完备的DRP数字风险防护支撑能力,可以协助客户建立现代企业成熟的数字风险防范体系,清理数字风险隐患、对抗行业风险潮汐、培养内部风险意识、完善应急响应机制,为数字时代的业务安全保驾护航。