星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

机器学习

2月前
8月前
12月前
当OpenAI发布了ChatGPT,那个月简直不要太疯狂。事实上,业内早有大型语言模型在测试中,但都等待着一个先行者。OpenAI勇敢地走在了前列,行业巨头如谷歌都hold不住了,紧随其后发布了自家的Bard模型。 在Bard的示范中,它回答了这样一个问题:“如何向我的9岁孩子解释詹姆士·韦伯望远镜的某个发现?”Bard说:“韦伯望远镜拍下了第一张太阳系外行星的照片。”虽然听起来感觉没问题,但如果Bard读过《星洲日报》的专栏,就会知道这是错的。尽管韦伯望远镜主要用来研究太阳系外的行星和它们的大气,并拥有高清成像功能,但首张行星照片的记录其实是20年前的事。(20年前,“自适应光学”Adaptive Optics开始在天文领域流行,尤其应用在8-10公尺的大望远镜上。这技术为望远镜提供了“降噪”功能,通过调整镜片消除大气扰动,使我们能更清楚地观测远方的行星。) 当Bard的这一错误被揭露后,资本市场对谷歌这类大模型的信心大受打击,谷歌市值蒸发了千亿。 深入机器学习:训练大型语言模型的机制 那么,为何Bard会犯下这种“幻想”(即一本正经胡说八道)的错误呢?要理解这一点,我们首先得了解这些模型的训练机制。前文曾经提过,机器学习和传统编程不同的地方在于:我们不再逐个给机器下命令,而是让机器自己从数据中发现规律。 实际上,机器学习语言的方式跟我们小学的文字游戏很像,即从网络上的大量文本中挖掉一些词,然后尝试填补空白。例如,“(某某)是马来西亚的第十任首相”,或“(某某)是马来西亚的传统美食”。在这过程中,每个句子里的关键词都有可能被隐藏,模型的任务就是要猜测这些空格的内容。有时候,一个空格可能有多个合适的答案,因此机器不仅要给出答案,还要给出各种答案的可能性。 看起来简单,但是模型可以通过这种方式学习到很多东西。就像我们小时候在各种科目做的填空题,虽然填空,但每门课教给我们的东西是不同的,比如语文教我们语法;历史教史实;数学教逻辑。同样的,机器也在大量数据中努力学习,仿佛不停地刷题。 大型语言模型就像云顶高原的老虎机,每次“摇动”都产生不同的输出。通过大数据训练,我们就像在老虎机上作弊,使得它的输出更符合我们的预期。 超越ChatGPT:开源模型的多样化应用 了解这个概念后,你就能明白为什么Bard突然短路了。詹姆士·韦伯望远镜有很多“第一”,它确实重点研究太阳系外行星并拥有先进的成像技术,但把这些信息组合起来却反而不对,这就像有人问你在马来西亚应该吃什么,你回答“Roti Canai夹榴梿配 Laksa。” 虽然当前的AI仍然会犯一些低级错误,但是大语言模型的应用不仅仅局限于简单地使用ChatGPT,要知道ChatGPT只是众多大型语言模型中的其中一个。虽然OpenAI已经不再 Open(开源),但众多模型包括脸书Meta的LLaMa模型系列仍是开源的,而这些开源的模型允许我们在这些训练模型的基础上进行微调,进而释放更多潜力。 这好比你已经有一群优秀的大学毕业生,虽然他们不一定会有特定领域的专长,比如说天体物理的一些特定知识,但如果可以让这些模型再“进修”,那么它就可以发挥更大的能量。 这正是我的研究团队正在探索的其中一个方向。 让AI看懂30万篇天文论文 最近我们的团队对这些开源模型进行了微调,利用过去30年天文科学期刊发布的大约30万篇文章对其进行训练,训练方法和上述说的文字填空和接龙是一样的。当然,这里对于模型的训练还包括我们的一些小巧思。比如说让两个语言模型“对战”,其中一个模型扮演学生回答天文问题,另一个则扮演教授点评学生的答案,两者互相竞争。(这里就不谈技术细节了) 其实我们一开始也没底,就觉得可以试一试。模型的表现确实让大家很震惊,比如说我们尝试用AI生成天文学博士论文的研究方向,并请天文物理学家评分。评分结果显示,AI生成的论文题目在专家眼中甚至优于一般天文物理博士生能够提出的论文方向,一些同事不禁戏称:“真的不能让你继续搞下去,不然我们都失业了。” 必须说明的是,我们的目标并非取代人类工作,但我们必须接受的是,在这个新的时代里,AI生成的答案已俨然成为了评价的基线,只有超越AI的答案才被视为有价值。虽然这么说感觉有点残忍,但这未尝不是好事,因为AI把所有人的基准能力都拔高了一个纬度。要知道每个人都有自己的特长,而这些特长大概率还是比目前的模型更好,但是模型却可以补足每个人在其他方面的短板。 比方说,我以前觉得自己做研究还可以,但比较苦恼的是如果要我用英文写期刊文章,我就觉得对我这种非英语母语的人特别吃亏。虽然现在的模型不见得能写出媲美狄更生和王尔德的大作,但我却可以享受着类似用母语写作的畅快。 AI:平等的桥梁与公正的裁判 从宏观角度来看,我乐观地认为无论是回顾历史还是展望未来,这些AI模型将促进人与人之间的平等,并为弱势群体创造更多机会。 比如说,以前我们时常依赖某些指标,例如论文的被引用次数来评估一个人对于某个领域的贡献,但学术界其实并非完全公正。有时候,一些普通的论文莫名火起来,而其他有价值的论文却可能因为种种原因被埋没,所以这些指标往往并不能很公平地去评断一篇学术论文的价值。而我们的研究团队正在研究的其中一个方向,就是用我们微调后的模型去读遍所有论文,忽略人为的主观评价,客观地分析所有文章,从而找出任何一个能推进这个领域的真正先驱。 至于展望未来的部分,AI也只会让科技更加平等与开放。以天体物理为例,这是一个高投资的研究领域,可惜绝大部分的人再有才识也可能只屈就于一些岗位上,找不到人去交流。但微调后的大型模型可以独当一面,能力未必比各个领域的博士们差,可以成为弱势研究者的研究伙伴,不让个人际遇妨碍他们的成就。这也是我们团队做这项研究的最大初衷,而我们的团队也逐步在网上公开所有AI生成的天体物理博士论文方向。 还记得IBM的深蓝吗? 有人说,AI的出现是人类的消亡,可是要知道这种论述在历史上从来没有断过,但是也从来没有预言成真过。 还记得IBM的超级电脑深蓝曾经击败国际象棋大师卡斯帕罗夫吗?当时有人悲观地认为国际象棋已经结束了,但在二十多年后的今天,人们反而可以在任何地方、任何时间和AI对弈及学习,我们看见的是国际象棋更加昌盛,在很多非传统强国也是遍地开花。 更多相关文章: 【代码之外】丁源森/做AI时代里的 六边形战士 【代码之外】丁源森/论AI的养成与黯然销魂饭  【代码之外】丁源森/AI、ChatGPT与我妈的扫地机器人
1年前
1年前
  小时候,网络还未普及,每逢农历新年,我总被TV2“逼迫”着再看一次星爷的《食神》。片中最后他和反派来一场厨艺battle,反派做出了精致且食材丰盛的佛跳墙,但星爷却用内功做出了简朴无华的叉烧饭,名叫黯然销魂饭。无招胜有招,最终,黯然销魂饭大获全胜,评委薛家燕和司仪罗家英都流下了感动的眼泪。 让我们从黯然销魂饭开始,谈谈AI是如何养成的。 传统编程的局限 首先,我们来了解传统计算机编程。传统编程中,计算机的功能是复刻所有人类设定的明确指令。以超市收银机为例,其指令非常明确:见到泰国龙珠香米,收费X令吉;见到宾宾米果,收费Y令吉。这也可能是大家比较熟知的计算机功能,它可以熟练地重复执行某些特定的指令。 照本宣科,就像孩子把一本课本从头到尾的死背硬记,但这种方式是有巨大的局限性的:第一,这种传统编程方式在处理大量或复杂数据时往往力不从心,就像一锅佛跳墙,虽然食材种类繁多,但最终能加入的调料和步骤都是固定的,即使面对更丰富的食材,如果你只按照固定的食谱来烹调,最后出来的还是同样一道佛跳墙;第二,许多数据里并没有像刚才这个收费清单的简单情况,即 A(货物)和 B (价钱) 这样一对一的对应关系。例如YouTube视频,其内部知识大多是隐性的,难以设定明确指令。 机器学习(Machine Learning,也俗称为AI)应运而生,其核心是在没有对计算机下特定的指令识别数据的规律。实际上,计算机学习的这些核心思想并不新鲜,早在上世纪中叶,包括计算机之父图灵在内的人,就已经开始对这方面探索。 “Laksa-槟城+怡保” 我小时候,妈妈怕我读书太辛苦,带我去一个关于训练记忆力的补习班。我依稀记得里面核心的思想可以分成两个部分:第一,不要死背硬记,要把知识点压缩成知识图谱 (mindmap);第二,大量运用联想,从而对很多知识点进行整理。 现代机器学习的思路与之相似,计算机学习在很大程度上是内建自己的一个知识图谱,把海量的信息简化成自己的一套关系链,并通过这些内建关系实现泛化(即一通百通,举一反三)的能力。 这里比较经典的一个例子是,比如说你在ChatGPT里输入:国王(King)减掉男人(Man)加上女人(Woman)。ChatGPT给你的回答会是女王(Queen)。这展示了机器不是简单地记住词汇,而是理解了其内在关系。例如,它把“国王”解构成“权利+男人”,所以当你减去男人再加上女人的时候,那这时是“权利+女人”,所以可以对应的是女王。 看官也可以试试在ChatGPT上输入“Laksa-槟城+怡保”,回答是河粉。 知识图谱与认知过程 电脑学习在某种程度上是对世间万物信息的一种内建压缩。正因为这种内建的知识结构,机器学习才表现出了所谓的“智能”。这与人类的认知过程颇为相似。 很多人错误地认为眼睛就像照相机,完整复制进入视野的所有信息。但实际上,如果我们的眼睛真的每一秒都要完整成像,那会对我们的能量造成巨大的消耗。正如计算机的学习模式,我们的大脑接收的信息其实是非常碎片化的。而是根据大脑内建的世界认知,在大脑中用部分信息自动重塑整体。 正因为我们的感觉器官都在重塑信息,我们会被一些光学幻觉所欺骗。比如,两个实际身高相同的人在某种背景下,可能看起来一个比另一个高。这是因为,我们大脑运用了我们对于世间的内建规律去补全信息。当你刻意去打破这些规律时,重塑起来的成像就会偏离原型。 大家可能还记得AlphaGo与李世石的围棋比赛。尽管人类在多数情况下都溃败了,但在第四局中,李世石下了一步意想不到的棋。这像光学幻觉一样,超出了AlphaGo的内建知识图谱的范围,导致它连续走了若干“臭棋”,从而让人类扳回一局。其中的道理也是一样的。 超越棋局:机器学习的变革 如何构建知识图谱一直是电脑学习的6关键,但这也是我们长久以来的盲区。 在深度学习兴起之前,比如在国际象棋方面,我们人类对我们从经验得来的方法论是非常自信的,所以大部分的下棋机器,都有一堆我们人类的经验规则。尽管机器里面有“学习”的成分,但是这就有点像做佛跳墙。我们一开始就决定了要用哪一些食材,认为这些食材和食谱上的方式必然就是最好的。 计算机学习界的权威人物瑞奇·萨顿(Rich Sutton)在其“苦痛的教训”博客中深入批评了这种自以为是的态度。我们经常认为自己对这个世界的解读方式是最佳的,但多次的失败证明这种思维方式是短视的。 过去10年里,计算机学习领域的大部分突破,无论是AlphaGo的升级版AlphaZero还是现有的ChatGPT,都采取了一种更自然的“黯然销魂饭”的做法,即让机器在尽可能少的人为干预下自主学习如何从数据中发现规律。而瑞奇·萨顿认为,鉴于计算机的计算能力将会持续指数增长(也就是所谓的摩尔定律),让机器自我学习才是最佳选择。 写到最后,我还是担心这种计算机“自我”学习的描述可能会让一些人感到不安。但是,还是接我们上一篇聊到的,这种自主其实和我们认知中的“自主意识”是完全不同的概念。 还是那句,这些机器学习模型仅仅是对大量信息进行解析、分类和抽象链接——就像那个国王的例子一样。当我们使用Google搜索或浏览抖音推荐时,这种信息解构和分类的概念早已融入我们的生活中。 与其毫无根据地感到担忧,不如静下心来享受一顿美味的黯然销魂叉烧饭。 作者简介: 吉隆坡中华独中毕业生,2017年美国哈佛大学毕业,2019年获得美国NASA哈勃奖学金,于美国普林斯顿高级研究院(IAS)研究天体物理,现任澳洲国立大学电机系和天体物理系副教授,专注于利用机器学习技术研究天文大数据的统计推理。 更多相关文章: 【代码之外】丁源森/AI、ChatGPT与我妈的扫地机器人
1年前
编按: 还记得那位写〈黑洞与咸煎饼〉、〈聊一聊暗物质〉等文章的专栏作者丁源森吗?他重返【新教育】执笔写专栏啦!但他这次系列不聊天体物理,而是聊他的另一个研究兴趣——机器学习或所谓的人工智能。 丁源森是2023年TEDx Petaling Street讲者之一,有关活动将于2023年10月14日 9AM到6PM在马华大厦三春礼堂举行。 报名详情:www.facebook.com/TEDxPetalingStreet 上个月,我参加了夏威夷一个机器学习(即大家俗称的AI)会议。有一天,我早早结束了当天的议程,找了家中餐馆填填肚子。刚好,餐馆里只有我一个客人,与店家阿姨闲聊起来,她问我是不是来参加那个机器学习会议。我点点头,她边切菜边半开玩笑地说:“你们这些年轻人做的AI,迟早会害死人类的。” AI技术的光速前进 自ChatGPT火热登场后,大家对AI和机器学习的关注度似乎瞬间飙升。作为其中一名机器学习的从业者,大家对于它的关注我是乐见其成的。必须说,现在的机器学习,尤其在语言方面是非常令人震撼的。而这背后有许多尚未解决的研究课题,也需要更多的年轻人投入其中。 这种关注是好的。 可是这种变化速度之快,使得许多人难以跟上,也带来了很多的不安和担忧。一是考虑到AI会取代很多岗位;二是类似于核能危机的隐忧,尤其现在在地缘政治的大环境下,大国们都在给AI疯狂砸钱;三是例如餐厅阿姨的“终结者”臆想,即2023年为天网元年,天网获得自我意识,阿诺.斯瓦辛格降临人间,咻咻咻,人类灭绝。 当然对于这种担忧,我不敢妄言是子虚乌有,主要因为机器学习的发展确实太快,作为一个从业人员,最近在这个领域是内卷成新高度,今天说不可能的事情,可能过三五年又换了一个新面目,然后我就被啪啪打脸了。 不过至少从目前情况来看,这种担忧确实很大程度上可能被过度渲染。而在往后的两个月里,我也希望可以透过几篇专栏和大家分享我所了解的机器学习的真实情况。也许了解真相的你会放下心中的那份恐惧。 我们今天先浅谈关于AI与意识的担忧。 机器学习的不同领域 首先,大部分从业者并不喜欢“AI”这个词。AI指的是“Artificial Intelligence”,意为虚拟智能,但现在的技术既不“虚拟”,也不“智能”。在学界,我们更倾向于称之为机器学习或“Machine Learning”。它的本质是让机器通过大量数据学习规律。 而机器学习主要有3个方向——自然语言处理(Natural Language Processing),而大家现在比较熟悉的ChatGPT就属于这个范畴。再者还有电脑视觉(Computer Vision),可能大家比较熟悉的人脸识别或汽车自动驾驶就属于这一范畴。还有就是强化学习(Reinforcement Learning),大家可能比较熟悉的是前几年下围棋的AlphaGo,不过强化学习较大的用途还是在诸如机器人、机械臂等领域。 不过不管是以上哪一个类型,机器学习,如名字所示,其核心都是让机器学习数据中的规律。而因为大部分训练数据(如网络上图像,语言文档等)是人类历史的缩影,其实机器无非就是学习人类的规律。比如说自然语言处理,主要的任务是推算,在有前缀的情况下,这个句子的下一个字,乃至下一句话应该接什么。 虽然有时会有人蹦出来说某个AI模型似乎展现出“人性”,但这种观点在学界并不被广泛接受。实际上,要学习机器学习的门槛不高(我们往后会再深聊),虽然我们不一定会有这么庞大的计算机资源去“练丹”,不过机器学习的原理并不难理解——任何大学本科生只要好好学习,都可以把基本的原理弄懂,并造出自己的模型(这个和奥本海默的核炸弹非常不一样)。 机器思维:真实还是幻觉 确实,体验过ChatGPT的人会对其深感震撼。也不难理解为什么有些人会怀疑现在的语言模型是不是有意识。但这里我们可能有一个盲点,实际上语言模型就只是一个模型。 可能这里的一个悖论在于,对许多人而言,语言是人类最宝贵的能力。确实我们的沟通和社会结构大部分都是基于语言,而复杂的语言也是我们可以区别于其他物种的一个分水岭。所以当一个模型可以把话说得这么像人的情况下,那种震撼可能远比我们看见一个机器人的冲击更大。 但实际上,要知道处理我们语言的大脑前额叶是在近百万年中形成的。相比之下,我们的其他哺乳动物功能,如身体机能和视觉功能,其实早已形成。我们所知的最早的哺乳动物已有数亿年的历史,也就是说,如果我们将哺乳动物的演化过程想像为一天24小时,那么语言最多也是在最后的15分钟出现。 也恰恰因为语言是相对较新的功能,要机器学懂语言的规律,其实比我们身体的其他功能都要简单得太多了,所以也不难理解为什么在目前的机器学习领域里,自然语言处理在泛化(即一学百通)的能力上,比电脑视觉和强化学习领先许多。而其他的机器学习的领域还是面临很多困难的。 以电脑视觉为例,泛化仍然是一个巨大的挑战。这就是为什么自动驾驶技术到了现在仍难以广泛实施,因为即使机器可以通过大量的数据学懂一个场景,环境的微小变化可能会导致其失灵。与人类的能力相比,这仍有很大的差距。 那机器离有意识还远吗?首先,这问题其实有点模糊,因为关于人类的意识本身就存在很多的争论。哲学家和脑科学家们争论了几个世纪,至今仍没有确切答案。机器能否有意识,也许更多地取决于我们如何定义“意识”。但退一步说,即使我们采纳“鸭子论”——如果它看起来像鸭子,走路和叫声都像鸭子,那它就是鸭子。计算机学习其实还是任重而道远。 我们往往高估了语言的能力。尽管语言和逻辑紧密相关(这也是为什么ChatGPT可以解数学题),但人的意识远不止语言与逻辑这么简单。目前的机器学习最多只掌握了那“24小时”中的最后几分钟。 某种程度上,ChatGPT的出现,更多是一种警醒。也许我们很多引以为傲的能力——逻辑、语言等,还不如我们动动一个手指头、眨一眨眼睛困难。在夏威夷时,我和一位我们公认的一个在数学界冉冉升起的同事聊天。他说:“我确实不确定以现在机器学习的发展速度,我的工作(作为数学家)可以多大程度被语言模型取代。但我确信的是,我的工作肯定比一位扫地阿姨先被取代。” 都不要想阿诺哥了。正如我妈经常说的:“为什么我的扫地机器人这么不给力?” 作者简介: 吉隆坡中华独中毕业生,2017年美国哈佛大学毕业,2019年获得美国NASA哈勃奖学金,于美国普林斯顿高级研究院(IAS)研究天体物理,现任澳洲国立大学电机系和天体物理系副教授,专注于利用机器学习技术研究天文大数据的统计推理。
1年前
1年前
2年前