泰勒斯威夫特的深伪色情影片并不是新鲜事,但这并不意味著我们不需要关注这个问题。

Emma McGowan 2024年1月30日

在AI生成的泰勒斯威夫特色情图片在X前身为Twitter上病毒式传播后,我们不禁要思考:这对AI的未来意味著什么?

最近,AI生成的泰勒斯威夫特明确图片在X上疯狂传播,揭示了AI能力的一个黑暗面。这些图片被认为是使用Microsoft Designer创建的,引起了广泛关注,突显了AI生成假色情图片的日益严峻挑战。

随著这些图片迅速在平台上蔓延,此事件不仅激起了粉丝和隐私倡导者的愤怒,还引发了关于AI在媒体创作中伦理使用的重大问题。

Avast的威胁情报总监Michal Salt带来了丰富的知识和专业见解,对这一时效性话题进行深入讨论。Salt专注于技术、安全性和伦理的交集,提供了关于AI生成内容影响的细致观点。

在以下部分中,我们将深入探讨他的见解,研究图片操控的历史类比、AI技术带来的道德困境,以及在我们日益由AI驱动的世界中对数字信任和安全的更广泛影响。

假色情并不是新问题

Salt将当前AI生成逼真图片的能力与过去Photoshop的使用进行了对比。正如Photoshop多年前彻底改变了图片处理,AI如今也使得创建逼真图片变得更加容易。然而,操纵图片的概念并不新鲜;AI仅成为这一持续 saga中的最新工具。

“在某种程度上,这只是一种不同的照片编辑软件,”他解释道,强调操纵图片的问题已经存在了十多年。现在的关键区别在于AI技术带来的便利性和可及性。这一变化引发了社会如何适应和监管这些新工具的重要问题,这些工具使得创造逼真图片的门槛比以往任何时候都要低。

AI与明确内容的道德困境

最迫切的问题之一是使用AI生成明确图片的道德影响,特别是对于特定个体未经其同意的情况。虽然生成普通的裸体图片可能不会引发太多道德质疑,但真正的问题出在于轻易地创建可识别人员的明确图片。

火烧云机场

泰勒斯威夫特的深伪色情影片并不是新鲜事,但这并不意味著我们不需要关注这个问题。

“AI生成的色情内容本身或许并没有内在的错误或伦理问题,”Salt表示。“但对我而言,伦理问题在于你能相对容易地生成带有知名或特定面孔的图片。”

这一能力超出了像泰勒斯威夫特这样的名人,对任何人都可能适用,强调了需要建立伦理准则和立法的必要性:所谓的“报复色情”或非自愿分享裸体照片在48个州是非法的,但AI生成的深伪色情目前仅在10个州被禁止。这一明显差异突显了立法需要跟上技术的发展。

AI公司如何防止生成深伪色情?

或许是因为创造性AI的访问还是一个相对新的现象,对于在未经主体同意的情况下创作明确内容的规范仍然很少。不过,Salt表示,对AI公司来说,实施这些规范并不会非常困难:比如不允许生成特定人员的图片,或者不使用客户提交的图片作为素材,将为绝大多数人提供足够的保护屏障。

“当然,一些人会设法突破限制,让模型做它不应该做的事,”Salt说。“在我看来,现在几乎无法完全避免这种情况我们只能使其变得更难。我想说的是,这些提供服务的公司应该更加努力地去避免这种问题。”

此外,还存在有人创建自己的色情生成模型、且没有任何限制的可能性。但Salt指出,尽管这是可能的,但需要大量的技术知识和计算能力才能实现。

“并不是很多人能够自己创建AI来生成裸体图片,”Salt说。“因此,这将更像是使用Photoshop,需要具备一定的技能。”

Salt将目前的AI发展状况与安全行业的演变进行了对比。他观察到,我们正在见证安全行业在AI领域的“重新启动”。这一对比强调了将AI发展视为一个持续过程的重要性,识别和修复漏洞是技术成熟的关键。

泰勒斯威夫特在X上的AI生成图片凸显了负责任使用AI的重要性。随著AI的持续进步,平衡技术能力与伦理考量及安全措施将至关重要。通过向像Michal Salt这样的专家学习,并反思过去的挑战,我们可以以更明智和谨慎的方式应对这一复杂的领域。

数据经纪人:谁在卖你的数据?

数据经纪人:谁在卖你的数据?

身份保护数据经纪人:您需要知道的一切您可能不知道数据经纪人是谁,但他们对您的了解却很深。每天有成千上万的数据经纪人购买和销售消费者数据,收集一大堆关于每个人的信息,包括您。继续阅读以了解那些将您的信息出售给第三方的公司以及 Avast BreachGuard 如何帮助您重新掌控您的个人数据。 获取 ...

现在可用

现在可用

这篇博客文章已经有 6 年历史,可能已经过时。现在可用 下一个 macOS 测试版2018 年 7 月 4 日 新闻我们已经准备好一个新的 macOS 测试版 VPN 应用程式,供您测试。请访问 macOS 测试版页面 获取下载连结和重要信息。如果您无法访问我们的网站,您也可以在 我们的 GitHu...

订阅邮箱