有一天,我们团队里一名博士后在Slack群里用ChatGPT发了一首“歌颂AI老大千秋万载”的颂词。他自嘲说,如果有一天AI真的统治世界,他就用这首诗投靠AI,以求保命。虽然他是在开玩笑,但这让我意识到,对于“天网”式的AI统治,确实有不少人是真的感到恐惧的。
正因为很多人对AI和机器学习持悲观态度,我在之前的文章中也努力向大家展示其正面影响,尽量以务实和乐观的角度来论述。但赞美之余,我们也不能掉以轻心,忽视其潜在问题。老子说,“祸兮福所倚,福兮祸所伏”,因此,这个系列的最后一篇,要全面探讨一下AI的好与坏。只有全面、理性地探讨,我们在问题出现时才不会乱了方寸。
ADVERTISEMENT
AI在基础科学研究中的多面作用:不仅仅是效率
目前的AI在多个方面都给了我们保持乐观态度的理由。它在各领域解决了一些长期困扰我们的“瓶颈”问题。
在生物科技这个领域,AI帮助我们更快、更低成本地了解蛋白质是如何折叠的,这对于发现新药至关重要。借助AI,我们能够快速从大量的基因序列中推测分子结构和属性,无需耗费大量资金进行生化实验。这不仅大幅降低了生产成本,也显著提高了研发效率。值得一提的是,目前AI在这一领域的表现已远超传统技术。
除了生物科技,物理学也因为AI的加持而得到了重大突破,特别是在核聚变研究方面。如果您还记得我们在〈黑洞与咸煎饼〉中的讨论,您就知道核聚变理论上并不是难以克服的难题——太阳就是一个天然的核聚变反应器。然而,在地球上模拟这一过程的主要挑战在于,我们很难精准地控制电离子以实现全方位的均匀施力。借助强化学习,也就是AlphaGo等软件所使用的技术,现在我们能够实时预测和调整各个不均匀的部分。这也使得核聚变首次实现了能量输出大于能量输入。而如果核聚变能够成功实现商业化,它将成为一种极度环保的能源选择。与核裂变不同,核聚变不仅是一种干净的能源形式,还不存在失控的风险。
又比如在我的研究领域——天文学,AI也具有巨大的潜力。您可能在疫情期间看过Netflix的电影《不要抬头》(Don’t Look Up),它讲述小行星即将撞击地球的故事。尽管这个主题有些老套,但在现实生活中,从海量数据中识别对地球潜在威胁的小行星,确实是一项极其复杂的任务。我和我的同事们也正在利用电脑视觉技术——类似于监控系统的人体追踪技术,来寻找这些小行星。
当AI被不当使用的潜在危害
尽管机器学习在多个方面都正在推动我们社会的发展,但并非所有影响都是正面的。虽然我之前一直强调AI的积极潜力,但我们也必须警觉于它可能带来的风险。
在马来西亚,我们普遍存在一个误区,感觉大家好像认为机器学习是一个高端且难以触及的领域,我们也只能嗑瓜子,看着中美竞争就好了。然而,事实上,机器学习的入门门槛其实相对低。尽管有些研究确实需要大量资金,但普通学生甚至高中生也能理解其中的基础概念。据我所知,像新加坡就正在全球以高额奖学金吸引电脑科学博士生。如果我们马来西亚不开始重视AI和机器学习,那么我们将面临严重的全球竞争劣势。我们需要让年轻人知道,机器学习并不是高不可攀,反而是未来发展的必备技能。
而正因为机器学习的门槛相对较低,这也为不怀好意的人提供了更多可乘之机。我们常说人工智能正在变得越来越“智能”,但这种智能不是说有意识,而是它可以用少量的样本做到泛化。以人类来说,我们能够仅凭几句话就识别出说话的人,这是一种高度的泛化能力。而当前的人工智能技术也越来越能在少量样本的基础上进行泛化。这样的进步当然带来潜在的社会风险,比如通过简短的语音样本就能模仿某人的声音。但是这种问题,我觉得所谓“魔高一丈,道高一尺”,最后我们社会也会慢慢适应。
说到坏人用AI做坏事,其实还有更令人担忧的潜在问题。我曾与一位专门使用AI进行蛋白质折叠研究的同事讨论过这个问题。他最担心的是,这种低成本的“制药”技术具有双刃剑的性质:一方面具有制药的潜力,另一方面则可能利用AI来设计病毒,而且成本不高。我自己当时听的时候也是吓出了一身冷汗。
这让我回到了文章的开头,我觉得我们有时在讨论AI时会失焦。像大量失业和“天网”式的自我意识机器人的出现确实有些过于想像,但我们应记住,人类最大的威胁往往还是来自人类自身。
勇往直前,在风险与机会中寻求平衡
有人可能会问,既然有这么多不确定因素,为什么不直接限制这些技术的发展呢?这当然是一个值得深思的问题,美国等国家也在频繁讨论这一点。但核心问题在于,即使我们限制大型模型的发展,问题本质并未解决。小型模型同样有可能造成巨大的破坏,特别是考虑到这一领域的入门门槛相对较低。
另一方面,我们面临许多紧迫和复杂的问题,从应对气候变化和寻找可持续能源,到治疗癌症,甚至应对不可预见但极其严重的问题如小行星威胁。在所有这些方面,机器学习都是我们人类现在唯一的希望。因此,我们不能因为某些潜在的风险而因噎废食。
然而,不管大家觉得我们是因噎废食还是饮鸠止渴,事实是这个大门已经被敲开了。我们现在能做的最好的事情,就是每个人更深入了解这些新兴技术,并形成自己的见解,而不是随波逐流。
不确定的未来的确会令人不安,不过我觉得人类发展总是像在高空的钢索上行走,永远都具有风险和不确定性。但停滞不前不是选项,我们唯有勇往直前才能保持平衡。
更多相关文章: 【代码之外】丁源森/AI在天文上的神助攻 【代码之外】丁源森/做AI时代里的 六边形战士 【代码之外】丁源森/论AI的养成与黯然销魂饭 【代码之外】丁源森/AI、ChatGPT与我妈的扫地机器人
ADVERTISEMENT
熱門新聞





百格視頻
我们希望教会孩子分辨的,不只是“不对/不能做”清单中罗列的行为,也包括隐藏在行为背后的动机与价值意涵。
霸凌、性骚扰、乃至自杀一直是隐藏在校园中的危机。发生时,我们可以成为事件的旁观者。但是,笔者认为,作为一名家长,我们一样可以拥有更积极的作为。即使这没有发生在我们身上,我们都应该视为一次机会教育,让孩子从中学习。
这不仅限于上述提及的事件,假新闻、社区议题、能力与成绩收获的公平性,乃至充满争议的选举与族群关系,样样都可以是机会教育的好教材。更重要的是,这样的机会教育并不需要去追踪各种网络似是而非的贴文与流言蜚语,也能够很好地让孩子从学习中获得成长。
人工智能已经渗透入我们生活的各个层面,只要我们能够链接到网络云端,就能直接或间接收到人工智能技术送出的内容与结果。尽管这已经是一个不可逆转的趋势,但是对于如何更好地分辩核实这些内容与结果,身为成年人的我们几乎都做不到,更何况是未成年的孩子。
我们已经不是生活在“有图有真相”的世界,图像深伪(deep fake)技术冲撞着我们既有的道德伦理界限。从一本正经的AI新闻主播,到移花接木乃至无中生有的深伪技术,人生智能生成的图像毫无止尽地轰炸着我们的感官视觉。我们须要教会孩子不能只是被动地接受信息,还必须主动地判断信息内容的真伪。
近期风靡利用这一技术,将照片转换成日本吉卜力动画风格的照片。在使用这类AI技术生成某个内容时,我们有可能忽略了它会产生的后果,以及这些后果对他人的影响。生成吉卜力动画风格的照片或许是对大师宫崎峻致敬,但也可能是侵犯版权。移花接木不仅侵犯了隐私,也严重贬损他人的人格。让孩子学会思考一个行为可能带来的结果,以及其背后的蕴含,正是我们能够教会孩子的一种能力素养。
长期以来,性骚扰一直是校园与职场中被讨论的问题。迟至2022年,马来西亚才正式拥有了《反性骚扰法令》,在体制与处理机制方面仍有许多改进与提升的空间。但在教育环节方面,我们所做的工作远远不足。孩子透过网络接收到的不正确与不良信息内容,在数量上远远超过了他们在课堂获取的正确知识,也远超出老师提供的心理辅导。
我们希望教会孩子分辨的,不只是“不对/不能做”清单中罗列的行为,也包括隐藏在行为背后的动机与价值意涵。我们对待他人的言语与行为方式,反映了我们自身的一种态度。对自己、对他人的人格与身体的尊重,应该是教育的核心。
在这方面,家长借由与孩子的互动,帮助孩子划出一条清楚的界限,也给予孩子勇气说出自己的想法,这能够发挥一样好的教育效果。
许多研究指出,校园暴力与霸凌事件背后的起因,正是由于缺乏同理心的缘故。同理心(empathy)指的是一种站在对方的处境立场中思考与感同身受的能力。同理心不仅仅展现在与同侪之间的互动关系中,也展现在与其他人,包括与家庭成员、长辈亲友、乃至陌生人的接触中。引导孩子学会觉察自己的情绪变化,学会同理心的思考,是一个家庭最重要的功课之一。
莫切认为这类事件没有发生在我们身上,没有发生在孩子的校园内,而就当一个冷漠的旁观者。没有人天生就会处理与面对任何的困境,说出自己的遭遇。
每一次的机会教育,都是帮助孩子演练如何面对困境。这也不是说,和孩子讨论过类似的话题之后,孩子就会习得且一辈子拥有这样的能力。若不时时演练,这种觉察的能力也会丧失敏锐度。每一次的机会教育,都是一个让孩子成长的素材,让孩子时时觉察任何潜伏的危机。








ADVERTISEMENT