2024年3月22日:人工智能:盟友还是威胁?
人工智能被定义为“系统正确解读外部数据、从这些数据中学习并利用所学知识通过灵活适应来实现特定目标和任务的能力”,它涉及算法和模型的开发,使机器能够感知和激励其所处环境并采取适当行动。这些算法使用大量数据和先进技术,如机器学习、深度学习、自然语言处理和计算机视觉。人工智能作为一门学术学科创立于 1956 年,如今日益成为主流,其益处毋庸置疑。
Irina Ivașcu (逸雪) 和 Corina Cristea, 22.03.2024, 15:49
人工智能被定义为“系统正确解读外部数据、从这些数据中学习并利用所学知识通过灵活适应来实现特定目标和任务的能力”,它涉及算法和模型的开发,使机器能够感知和激励其所处环境并采取适当行动。这些算法使用大量数据和先进技术,如机器学习、深度学习、自然语言处理和计算机视觉。人工智能作为一门学术学科创立于 1956 年,如今日益成为主流,其益处毋庸置疑。从更好的医疗保健到更高效的制造工艺,从更安全、更清洁的运输到更便宜、更可持续的能源,人工智能都能带来益处。
对贸易公司来说,人工智能可以促进新一代产品和服务的开发,并改善工作场所的安全,因为机器人可以从事危险的活动。然而,人工智能也有其弊端,比如可能对安全、民主、公司和工作造成威胁。我们是否已经到了担心人工智能及其改变我们现实的工具将会决定我们未来的地步?有人认为,这并非不可能。人工智能的发展令我们担忧的一个原因是在政治领域,通过人工智能制造的深度假象来影响选民的可能性。
大学讲师弗拉维亚·杜拉赫(Flavia Durach)博士是研究误导信息的专家。下面请听她向大家解释误导信息的运作机制:“深度造假有几种风险。首先是情绪成分的加剧,即加剧选民的某些情绪,这在某一时刻可能有利于某个候选人或政党。因为情绪操纵在错误信息中起着重要作用,因为情绪操纵会导致非理性的决定,破坏批判性思维,使人对某类带有强烈情绪成分的信息信以为真,例如恐惧或被激怒的感觉。就选举的公正性而言,这确实是我们可能遇到的情况,即候选人或竞选团队或某些有利益关系的行为者可以制造假象来诋毁对手,在选民心中制造疑虑。在这种情况下,最易受害的人大概是未决定的选民,这些选民可能会受到来自环境的交叉压力,从而在投票中左右摇摆,因此他们也就是最容易受到影响的选民。深度伪造从其本质上讲,具有很高的病毒传播潜力,容易消化,通常具有病毒性很强的音视频内容的所有特征,因此很容易传播。”
为了打击这种做法,包括主要人工智能软件开发商在内的 20 家科技公司最近签署了一份协议规定,这些软件打击有关今年选举的假新闻。主要签署方包括 OpenAI、微软和 Meta。该协议是在慕尼黑安全会议上敲定的,除了人工智能公司外,还包括一些最受欢迎的社交网络。Meta、TikTok 和 X(前 Twitter)必须确保从其平台上删除任何有害或虚假内容。OpenAI、微软及其它人工智能公司将确保识别人工智能生成的图像、视频和音频,并适当告知用户。大多数公司达成共识的措施是给人工智能内容贴上标签,主要是水印。
弗拉维亚·杜拉赫(Flavia Durach)认为这是一个良好的开端。她说:“然而,我们应该考虑到,在新冠疫情期间,也出现过假新闻,当时就已经做出了这方面的承诺,也采取了这种内容标签措施,但来自智库或与这些数字平台无关的研究人员的独立研究发现,这些措施有很多局限。就是说,很多误导性内容都能逃过审核政策和检测措施。因此,虽然我并不精通技术,但根据以往的经验,我对这些措施的有效性和效率持很多怀疑。”
弗拉维娅·杜拉赫(Flavia Durach)认为:“如果没有法律措施,没有在国家和超国家层面制定的法规,如果我们不把人工智能发展政策建立在道德和风险最小化的基础上,我们将一事无成。欧盟已经在这方面采取了一些重要措施,本周欧洲议会全体会议批准的新人工智能法包括一项条款规定,开发者必须说明人工智能产生的声音、图像和文本是人工制作的。不过,这还需要一段时间,因为该法律将在生效 24 个月后全面适用,并将分阶段地实施。
逸雪(翻译)
注意:本文版权仅属罗马尼亚国际广播电台所有,并受国家版权法保护。任何复制,引用及转载需得本电台同意,并不得超过500字,且须在文后注明文本出处及链接网页。