星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

副刊

|

星云

|
发布: 7:00pm 04/04/2023

创意

教育

人工智能

灵魂

人类

取代

聊天

陈丽娟

OpenAI

ChatGPT

美国职场

独特

思考角度

【美國職場】別害怕ChatGPT / 陳麗娟

作者:陈丽娟

近幾個月的課題席捲全球,各行業的職場上人人自危。大家開始擔憂大數據(AI)時代的到來,即將面臨被AI和失去工作的可能。ChatGPT是個面向用戶的界面,從2022年底發佈後,其公司估值飆升到290億美元,上線兩個月後有上億的用戶。

究竟ChatGPT背後的邏輯是什麼?怎麼一瞬間就要取代人類勞動了?人間資深的我們,如果還記得Y2K的危機,也叫作“電腦千禧年千年蟲問題”,20年前,人們擔心的是電腦進行跨世紀系統處理運算時,出現bug崩潰而造成大規模信息系統紊亂;20年後,我們開始擔心大數據運算、人工智能機器人程式(Chat Generative Pre-trained Transformer,ChatGPT)自動生成文本、對答聊天等,將取代了人力進行的溝通、分析等工作。

ADVERTISEMENT

科技從電腦軟件的穩定性、演進到電腦處理信息形成“智能”輸出(smart output)的演進。現代的電腦系統不只是穩定,還能透過程式解讀信息、精密運算、模型推演等,再給用戶輸出一個擬人的結果。簡單概括而言,我們把收集到大(量)數據,放到一個“模型”根據特定規律運算後,它會自動生成一個“智能結果”,看起來和人類分析後的判斷很相近。這就是ChatGPT背後的邏輯。

剖析了這個邏輯,我們知道ChatGPT有賴於大量信息的收集、分析、判斷而出結果。這個機械化的過程,目前依然不完美。譬如,這個系統如何進行真假信息的判斷、如何把人情世故的考量兼容到分析裡、又如何根據對象量身定做,ChatGPT或許可以智能化,但是沒法做到“人性化”。ChatGPT隸屬的公司——OpenAI創辦人SamAltman,前陣子接受訪問時坦承,他最擔心的是“ChatGPT將被用來進行大規模散佈假消息”。我們從“享用”Facebook、TikTok、Instagram社交平臺的內容,到現在“享用”ChatGPT直接幫人類先“吸取、消化信息後,再出答案”的成果。這人工智能產出的內容監控又更難了,因為那涉及AI大數據背後模型規律的設置,不是直白的內容首創。

人類的獨特視角無法被取代

可喜的是,我們作為人類並不是用程式設置的,而是透過成長經驗、學校和社會化的、家庭教育、社區活動、身分文化定位的氛圍養成的。我們人人體內都有自成體系的“ChatGPT”。我們每天和別人的交談、分享的看法、交流的經驗,都是透過我們的教養、教育等提煉出來的。我們人人都是最原始天然的“ChatGPT”鼻祖,又何來需要懼怕ChatGPT?

當然,人的精力和學習知識的時間是有限的,無法像AI那麼快速高效。因此,我們需時時保持獨立的思考,深刻地觀察,加上獨有的情感和認知,我們的分析和判斷或許主觀但肯定是獨特的視角,不是人云亦云的信息分析結果。我作為一名中文系專業,被告知沒什麼大出路的專業,沒料到迎來了社交媒體時代的來臨。隨著,我投入內容審核的工作,以中文系專業在理科行業輸出文科,這是一個文理兼備的科技時代。

ChatGPT時代,我們要發掘人的獨特性、人獨有的創意和個性。當人人都是獨特的靈魂,大家聊天都很有趣、很特別,人的獨特無法被取代時,大家便無需懼怕ChatGPT了。

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT