X平台隐私政策新变动,用户数据助力AI训练引热议

   发布时间:2024-10-18 21:10 作者:郑佳

近日,社交平台X的隐私政策更新引起了广泛关注。自11月15日起,该平台将允许使用用户数据来训练AI模型,除非用户主动选择退出。然而,这一政策并未提供明确的退出选项,且提醒用户即便在X上删除了内容,这些信息仍可能在其他地方存在。此举引发了用户的强烈不满,尤其是担心作品被无偿使用的创作者。

实际上,X平台并非首个采取此类做法的公司。过去一年,Adobe、谷歌、Zoom等公司也纷纷在其服务条款或隐私政策中引入了类似内容。这引发了关于AI训练与隐私、版权等问题的广泛争议,相关法律问题仍在热烈讨论中。

X平台此次更新的隐私政策扩大了用户数据的共享范围,包括与第三方合作伙伴共享,这进一步加剧了用户的担忧。部分用户已经开始在其他平台注册新账号,并计划陆续转移他们的作品。对此,X平台回应称,他们只会使用公开可用的信息来训练AI模型,不会涉及任何私有内容。然而,“公开”与“私有”内容的界定并不明确,这引发了更多的质疑。

使用用户数据训练AI模型的做法确实带来了诸多隐患。一方面,训练数据的质量与数据本身一样重要。如果X平台的AI模型接受了仇恨言论等不良信息的训练,那么它可能会复制并生成误导性内容。另一方面,使用用户数据训练AI还涉及版权和隐私权问题。根据欧盟的《通用数据保护条例》和美国加州的《加州消费者隐私法》,公司在使用用户个人数据进行AI训练时必须获得用户的明确同意。然而,许多大公司通过复杂或模糊的服务条款或隐私政策来征求用户同意,以规避法律风险。这导致普通用户难以理解具体含义,且往往只有同意才能使用平台服务,处于被动地位。同时,缺乏明确的撤回机制也让用户难以撤销之前的“同意”。

总的来说,关于AI训练所使用的数据的合法性问题仍然是一个亟待解决的问题。相关法律法规需要进一步完善,以保护用户的隐私权和版权。

 
 
更多>同类内容
全站最新
热门内容
本栏最新