“我的声音”你可以听,但不可以滥用

“我的声音”你可以听,但不可以滥用

思念他 2025-02-24 百科报 7 次浏览 0个评论

随着算法不断进步,在高性能设备和高精度模型的助力下,AI 生成的声音已从过去的 " 一听就假 " 发展到如今的 " 真假难辨 "。与此同时,AI 声音滥用现象也时有发生。一些商家在短视频平台带货时,通过 AI 模仿知名人士的声音编造内容,不仅严重误导了消费者,也对当事人造成了不良影响。

在 AI 智能语境下,生成 " 以假乱真 " 的 " 克隆音 " 并不是什么难事。依赖于当下的深度学习算法,从采集到的声音样本中精确提取一系列关键特征,包括频率、音色、声调、语速以及情感表达等。随后,这些特征被转化为复杂的数学模型,并通过算法进一步合成,可以轻而易举生成高度逼真的声音。

但随着 AI 智能技术的普及运用," 克隆声音 " 门槛迅速降低,一些不法分子趁机将其滥用于诈骗、虚假宣传。社交平台上,利用 AI 技术模仿并恶搞各领域名人的短视频屡见不鲜。曾有大量短视频通过 AI 模仿某知名人士的声音,其中部分视频包含不当言论,引发社会热议和追责官司。

" 我的声音 " 突然可以被别人随意 " 以假乱真 " 制作使用,有时确实让 " 我 " 也目瞪口呆,不仅容易借助 " 我的声音 " 去从事非法行为,一些违法违规行为的出现,更可能涉及对声音本人的权益造成危害,甚至成为诈骗等违法之为的道具。

个人声纹信息作为一种生物识别特征,具有高度的可识别性,能够被电子手段精确记录。其独特性、唯一性及稳定性,使其成为将信息与特定自然人相关联的关键要素。根据《中华人民共和国个人信息保护法》,声纹信息被归类为敏感个人信息,受到严格保护。按照法律规定," 我的声音 " 你可以听,但不可以滥用,尤其不能违法使用或通过 AI 模仿随意处置侵犯 " 我 " 的权益。

" 我的声音 " 你可以听,但不可以滥用,仅靠现行法律的规定和规约是远远不够的," 我的声音 " 亟需科学保护也是 AI 语境下迫在眉睫的新课题。

如何保护 " 我的声音 "?首先要强化 AI 智能领域的监管立法步伐。AI 技术普遍应用,给现实法律体系带来了巨大挑战。虽然类似的 " 声音权 " 在相关法律法规中有所指涉,但具体到日新月异的 AI 技术领域,相关法律法规的规约作用发挥还存在滞后的一面,现实法律法规框架对于发展迅速的人工智能而言,还存在管理力量与管理对象地位不匹配的一面。同时,在相关领域法律法规实施中,由于 AI 技术带来的新形势、新问题、新现象、新矛盾、新冲突,也急需相关法律法规在发挥治理规范作用方面与时俱进。因此,尽快完善 AI 智能领域立法,是从源头上防止 " 我的声音 " 被滥用的基础和前提。

保护好 " 我的声音 ",需要强化声音权益保护宣传教育普及, "AI 造声 " 其实更是一种智能技术的滥用,更是违反法律法规要求的畸形。随着 AI 智能化应用越来越普遍普及,强化 AI 智能技术应用伦理和法纪宣传已经成为当务之急。因此,司法、公安、网信、工信、平台等职能部门机构要结合 AI 技术广泛应用的实际,加强对类似 " 声音模仿制造 " 行为的宣传教育,重点针对 AI 技术研究对象、使用对象、发布平台、交易各方等进行法纪宣传,做到依法规范行为,严防 " 我的声音 " 被滥用。同时,也要结合实际案例,针对普通公众,开展好智能领域 " 我的声音保护 " 专题宣传,教育引导公众擦亮眼睛、竖起耳朵,不至于被 " 假的真声音 " 忽悠蒙骗。

" 我的声音 " 你可以听,但不能滥用,关键还要强化责任意识和执法追责力度。要在强化声音主体自我保护基础上,夯实平台责任、AI 技术产品开发责任、智能技术使用责任等,并采用严格执法、强化问责的干预手段,从源头上夯实责任,规范平台发布和智能技术开发、使用、推广者的法律责任,避免出现 AI 使用越界,给 " 我的声音 " 造成危害。(大河网河声评论员 许朝军)

转载请注明来自个人学习使用0830,本文标题:《“我的声音”你可以听,但不可以滥用》

每一天,每一秒,你所做的决定都会改变你的人生!
Top
网站统计代码