> 隐藏风险不容忽视 人工智能技术应用亟待规范_产经新闻网
  • 欢迎进入《产经新闻》官方网站
当前位置: 主页 > 行业新闻 > >>内容

隐藏风险不容忽视 人工智能技术应用亟待规范

2024年11月05日 10:42   来源:产经新闻   作者:admin   点击:
  近日,一系列由AI生成的配音视频在网络上引发关注,其逼真程度令人惊讶,不仅画面栩栩如生,声音特征也与真人几乎无异,短时间内便收获了过亿次的播放量。然而,这些视频中的内容与画面中的公众人物毫无关联,现已被平台下架。
 
  AI技术的发展降低了深度伪造和低价量产的门槛,AI生成影像、换声及换脸视频大量出现。这些视频虽吸引眼球,但背后隐藏的风险却不容忽视。
 
  当前,虚假信息的制造和传播已成为全球性问题,以假乱真的AI合成技术让普通人在信息甄别上陷入困境。《2024年人工智能安全报告》显示,基于AI的深度伪造欺诈在2023年激增30倍,对网络安全和社会安全构成严重威胁。虚假信息的泛滥,不仅扰乱了网络空间的正常秩序,更可能将负面情绪从虚拟世界传导至现实,加剧社会焦虑。
 
  应对深度伪造等乱象,需要多方协作、共同治理。目前,我国已出台《互联网信息服务深度合成管理规定》等法律法规,从源头加强内容管理。同时,《人工智能生成合成内容标识办法(征求意见稿)》的发布,也标志着国家层面正加大对AI技术的监管力度。只有让AI在合法合规的框架内健康发展,才能让人们真正享受到技术变革带来的红利,推动人工智能产业良性发展。
 
  作为信息传播的重要一环,平台运营商和服务提供者也应承担起相应的责任,对AI生成内容划定红线,严禁违法违规、侵权欺诈内容的传播,并添加显著提示标识,防范虚假信息扩散。此外,利用数字水印、时间戳、哈希函数等技术手段,既能提高信息真实性的可验证性,也是防范虚假信息传播的有效手段。作为内容消费者,受众也应保持警惕,提高辨别AI生成内容的能力,避免偏听偏信。 (李秋旸)
 
  转自:中国经济网-《经济日报》

    关于我们联系我们管理员入口

    产经新闻 Copyright © http://qyjlbd.com 2012-2017 版权所有

    网站邮箱:qyjlbd@163.com

    海淀分局网络备案编号:1101085079,1101055372

    京ICP备09075303号-1