星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

副刊

|

专题

|

焦点

|
发布: 7:00am 12/10/2023

焦点

假消息

人工智能

AI

AI科技

监控镜头

AI监控镜头

AI假消息

国家AI研发战略计划

【美国科技前瞻/03】平衡创新与风险 美国需尽快监管AI安全

报道.摄影:本刊 林德成(美国采访报道)

2023年,)领域出现一个分水岭,ChatGPT、Midjourney、Stable Diffusion等生成式AI应用横空出世,彻底改变了传统产业的模式,以及人机互动的方式。

ADVERTISEMENT

然而,AI爆炸式的成长,其背后隐藏很多潜在风险,人们担心有朝一日会失控。多年前的“深伪”(Deepfake)技术已让世人见识到真假难辨的世代来临。如今生成式AI崛起,如果没有加以约束和监管,恐怕会引发网络安全问题、个资和版权争议、泛滥等现象。

许多国家政府已经开始评估AI产业,想要采取适当的监管措施。美国参议院早前在9月份就举行了“人工智能洞察论坛”闭门会议,邀请二十多家科技公司巨头一起对话。这批科技领袖皆有共识,认同政府应该监管AI发展。

报道.摄影:本刊 林德成(美国采访报道)

每一次的科技革命都会重新塑造地缘政治和经济格局。近年,AI科技成为了各国的战略资源,谁能率先掌握新兴技术和具有创新力,便能够在经济、军事领域拥有话语权。

多年前,美国政府已经为AI做准备,并发布了《》,以便能集中资源,促进国家的AI发展。同时,政府也宣布《AI权利法案蓝图》,设立了5项基本原则,确保民众获得应有的科技权益。包括一个安全有效的AI系统、避免算法歧视、保护数据隐私权、民众使用系统时,需要理解背后的运作,以及民众使用AI系统时可以选择退出。

AI拥有巨大的发展潜能,但又有很多未知挑战。因此,美国政府希望大型科技公司能够负责任地开发AI产品,并在发布之前确保产品是安全、可靠和值得信赖。在今年7月份,谷歌、微软、Meta、亚马逊、OpenAI等7家科技巨头与拜登会面后,签署了自愿承诺书,答应会自我监管AI风险,以消除公众疑虑。两个月后,又有8家科技公司签署第二轮的自愿承诺书,当中就有Adobe、IBM、英伟达、Palantir等等,致力打造安全的AI系统。

美国政府在2022年发布了《国家AI研发战略计划》,促进美国AI的发展。

下届总统选举,如何应对AI假消息?

面对生成式AI所衍生的风险,科技公司有哪些良策?

毕竟生成式AI太方便了,只需输入指令便能制作各种虚假消息和照片,肆意造谣、误导、扭曲价值观和带动舆论风向,加剧政治分裂。美国即将在2024年举行总统选举,《华尔街日报》6月6日就曾报道,生成式AI技术会让大家拥有一个制作虚假政治内容的工具,网络平台有可能充斥大量假消息和影像视频,会对选举造成重大冲击。

在美国国务院外国新闻中心,负责网络安全和新兴技术的美国副国家安全顾问安妮.纽伯格(Anne Neuberger)向媒体记者透露,为了降低假消息的危害,一些科技公司承诺会在视频或图像添加水印,标记出那些由AI生成的内容。“我们认为在打击假消息方面特别需要(水印系统),以便能够教育我们的民众去找水印。”

此外,在应对这些虚假消息,必须要有一套应对措施。她举例,几个月前,有人在推特上发布了一张五角大楼着火的图片。当地消防部门火速赶往现场,结果发现是假照片。随后他们制定了一套应急方案。“我们也需要在州政府、联邦政府和地方政府之间建立这样的应急方案,好让他们能随时做好应对准备。”

安妮·纽伯格说,科技长期以来一直影响着外交政策。许多国家利用科技来推动经济,吸引熟练劳动力、提高生产率以及促进经济增长。

打造“公益AI”,提升民众福祉

安妮.纽伯格说,科技长期以来一直影响着外交政策。许多国家利用科技来推动经济,吸引熟练劳动力、提高生产率以及促进经济增长。

在规划AI的未来方向时,她认为应该运用AI去促进全球可持续发展的目标,为人民福祉着想。美国和欧盟在今年1月份便签署了一项关于AI的行政协议,涵盖气候变化、自然灾害、医疗保健、能源和农业领域。

在医疗保健项目底下,双方有11项合作计划,其中包括建立更有效的癌症检测模型和心脏治疗模型。至于自然灾害方面,AI在预测和模拟时可以发挥很重要的角色,让有关单位和民众可以采取紧急防备措施。

她补充,AI还能优化农耕流程。比方说气温升高,是否会有不同的种植方式?是不是应该采取不同的灌溉方式?

【应对AI的3大原则──安全、保障和信任】

在今年5月份,七国集团(G7)在日本广岛峰会上一致同意,认为需要有一个监管框架,包括如何监管和负责任地使用这些技术。目前,欧盟6月份已经通过《AI法案》草案,预计今年年底会审批通过,而美国暂时还在讨论的阶段。

伊丽莎白·艾伦认为,在努力防范AI的危害和风险时,也要抓住各种机会向前迈进。

美国国务院公共外交和公共事务副国务卿伊丽莎白.艾伦(Elizabeth Allen)认为,在应对新兴科技和AI难题时,没有任何一个国家能够或不应该单独解决这个问题,即使是美国也不能。大家必须合作,在谈论的桌子上必须容纳不同的声音,包括政府的观点,以及民间组织、倡导者、科技公司的意见。

“美国政府在处理新兴科技和AI方面有3个原则──安全、保障和信任。事实上,信任就是一切的基础。”她说,美国正在发挥领导的角色。他们意识到AI所带来的风险,并努力地预防和监管。与此同时,美国政府也想把握新兴科技和AI所带来的机遇。

多种创新技术在改变世界

美国国务院关键和新兴技术特使办公室副特使塞特.森德博士(Dr. Seth Center)说,现在不仅仅是一种技术在改变世界,可能有四五种技术在改变着人类的生活。

他直言AI已经无所不在,每个人的手机里面可能有15个不同的AI应用程式,所以,现在要和人对话都有些困难。除了AI,接下来量子信息科学有可能彻底颠覆电脑和密码学。之后还有一系列的清洁技术,会有机会改变整个能源环境。如果再加上生物科技,情况就会变得更复杂。

塞特·森德博士认为,需要尽快处理和监管AI的风险,无论是数据偏见和歧视,抑或对国家安全造成的威胁,这些系统可能会生成各种令人不安的知识。他举例,大语言模型有可能消化世界上所有的科学论文,然后对生化武器生成一些新奇的想法。

当各个国家、公司想要在这些技术领域获得优势时,很自然地会引发一种动态竞争(competitive dynamic),无论是商业竞争或地缘政治竞争。为了巩固美国在半导体领域的领先地位,美国政府为半导体行业提供超过520亿美元的资金,希望在芯片领域有更多创新和发展。

当记者问若有其他公司的新兴技术对美国构成国家安全威胁,是否会采取类似出口禁令的措施。塞特.森德博士答,美国政府是采取“小院子,高围栏”(small yard, high fence)的战略。如果发现某些新兴技术会对国家安全造成威胁,他们会以同样的标准去评估有关技术。

自愿承诺书是一个框架

美国作为军事大国,又是如何看待AI武器?他说,“理论上,AI将会无处不在,然后出现在社会的各个领域,包括军事领域。因此,我们应该制定明确的标准,要如何用安全和负责任的方式去使用AI。各国政府应该对这些标准有一个基本的理解和共识,这样至少可以降低错判、意外事故和滥用的可能性。”

在美国白宫的官网上,美国政府声明,在关键技术领域里面,他们是秉持“小院子,高围栏”的标准。

至于监管AI方面,美国政府仍处于起步阶段。“许多人认为,也许我们需要类似国际原子能机构(IAEA)来监管AI。其实从第一次核武器测试到IAEA成立,前后花了12年时间。所以,你想像一下我们目前的阶段,然后要用多长时间才能达成国际协议去建立一个机构。”

他提及,美国科技公司目前所签署自愿承诺书并没有法律约束力。可是在进入实质的监管架构或谈论如何监管时,这份承诺书就提供了一个参考框架。接着再依照“安全、保障和信任”这3个原则去管理人工智能系统的潜在风险。

延伸阅读:
【美国科技前瞻/01】学会拒绝人类 AI机器人更自主更智能
【美国科技前瞻/02】共享实验室激发初创潜能 推动“学术创业”风气
相关稿件:
【AI诈骗/01】AI技术突飞猛进 网络诈骗如虎添翼
【无人机飞安/01】体积虽小冲击力大 无人机一飞限冲天

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT