這也並非全是天方夜譚,只要AI再突破幾個障礙,作家就可以回去耕田了。
ADVERTISEMENT
媒體能不能把給評論作家的稿費省起來,以後用AI寫作就好?編輯這麼問我。其實這也並非全是天方夜譚,只要AI再突破幾個障礙,作家就可以回去耕田了。我們來假設有個AI叫小艾,媒體想用它取代所有作家。
小艾面對的第一個障礙是目前生成式AI尚未掌握邏輯,大語言模型只知運用文字應對而已。如果你問小艾:“橋上有釘,車子駛過,會爆胎嗎?”小艾會告訴你“可能”;但問題換一換:“橋底有釘,車子駛過,會爆胎嗎?”它一樣跟你說可能,因為它無法辨知車、橋、釘之間的空間關係。這些對人類來說不假思索便明白的事,對小艾來說仍是挑戰;它看似什麼都知道,其實不然。
何謂“知”?我們要進入哲學領域了。語言只是反映現實的符號,不管你說蘋果還是Apple,意指現實中那紅彤彤爽脆又香甜的水果。你“知道”蘋果,因為你看過摸過嘗過,而小艾只懂”蘋果“兩個字,再了不起也只算“看”過蘋果的圖像而已,這樣算知道蘋果嗎?不同學說對“知”有不同的詮釋,在此我認為小艾並不“知”,或說它的“知”和人類的大相徑庭。用AI來評論人間諸事,就像海水斗量,而且那個鬥還是穿洞的。
表面上小艾講得頭頭是道,其實都是鸚鵡學舌。就算一隻鸚鵡能對你講解四書五經,你沒半刻會以為它是聖賢再世,許多人之所以對AI有幻想是因為它還很新。要克服這個障礙必須進一步訓練小艾,它無法直接“體驗”人間,只能吸收更多由人類提供的二手資訊,直至這些資訊量超過某個臨界點,也許就能變得更像“有知”的人。但,這還不算“有知覺”。
就算小艾全知,它還得突破第二重障礙才可能取代作家:小艾沒有觀點。它看遍全網全人類的觀點,能迅速摘要和總結,但它不會有“自己”的觀點,自也不會有立場,因為它是“有知無覺”的機器。小艾沒有感情,沒有價值觀,也就沒有喜惡。人類作家的文章好讀,資訊含量不是主因,更多是因為字裡行間的人間煙火,甚至因為他們的偏見。文章抽掉情感,便和讀字典差不多。
我們無法創造有感情的機器,但要模擬情感還是可能的。接下來的是假想:除大語言模型外,還要給小艾附加一套“人格與情感模型”,在撰寫評論時用預設的“個性”來選擇性使用語言模型中的知識,這樣看起來就像有立場了。
但這樣還不夠,第三個障礙是小艾無血無肉,沒有形象,不是真人。這有問題嗎?文章好看不就得了?不夠的,因為這樣剝奪了網民辱罵作者的樂趣,像罵一塊石頭般無味,媒體會流失讀者。這障礙也能解決,除了給小艾做個頭像,還要給它“身份”,比如沙地阿拉伯於2017年賦予機器人蘇菲亞國籍。在馬來西亞,給小艾國籍還不夠,還要講明種族,罵起來才更過癮。
做到以上三項,莫說評論作家可以回鄉耕田,編輯也可以一起了。到時候我這邊種香蕉,你那邊種番薯,傍晚收工了約一約,我們一邊喝酒,一邊辱罵小艾。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT