星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

言路

|

微观时事

|
发布: 7:35am 20/05/2024

张晋玮

微观时事

隐私

新人工智能时代

ChatGPT-4o

张晋玮

微观时事

隐私

新人工智能时代

ChatGPT-4o

張晉瑋.小心!有機器人要監視你

在新人工智能時代,用戶必須學會保護自己的隱私,選擇使用更安全的人工智能產品,並且不輕易與機器人分享重要的個人信息。

聊天機器人持續升級,OpenAI研發的ChatGPT的功能從“一問一答” 模式提升至“多模型”(Multimodal)。它不僅能閱讀不同格式的文章,亦能夠解讀照片。

ADVERTISEMENT

此外,OpenAI也推出了Sora,能夠自動製作電影。近日,它發佈的(Omimus)更是能通過電腦或手機聆聽和觀看用戶,實現直接對話。

儘管這種“能聽、能看、能說”的人工智能為人類帶來了便利,但在聊天過程中,聊天機器人會收集大量的用戶信息。福布斯的報道對ChatGPT-4o表示擔憂,認為這種技術可能會導致個人隱私洩露和信息安全問題。

OpenAI表示,當用戶使用免費版的ChatGPT時,他們的聊天記錄可能會被用於訓練模型。隨著新型人工智能的推出,機器人能夠收集的信息將擴展到聲音和視頻。它不僅可以“聽見”你和家人的談話,還能“看見”你家的環境。

在社交媒體上,有人展示了使用ChatGPT-4o進行教學,機器人通過對話教孩子解答數學問題。這不僅展現了機器人在教育方面的潛力,還揭示了它有可能監視成人的一舉一動,並通過他們的家庭成員獲取整個家庭的信息。

在這種情況下,除了個人信息洩露問題,信息的誤用也會帶來嚴重後果。一個真實的例子是一位朋友在參與廣告拍攝後,同意讓攝影師使用他帥氣的個人照片,但這些照片最終被用於包括葬禮服務在內的各種廣告,這為他帶情緒上的困擾。

當機器人掌握了用戶的頭像,它可能會製造千萬個與用戶相貌相似的照片。這些照片可能在未經用戶允許的情況下在網上傳播,並被用於各種用途。

企業方面,人工智能滲透多個行業。在醫療領域,它被用於提高診斷的準確性和治療的效率。例如,IBM的Watson Health通過分析醫學文獻和患者數據,幫助醫生為癌症患者診斷和制定治療計劃。

如果“能見、能聽、能說”的人工智能被應用於醫療行業,它可通過多種途徑收集更多患者資料,從而進一步提升醫療的有效性。然而,患者的病歷和個人信息也可能因此受到威脅。人工智能既可以成為病人的守護天使,也可能成為監視病人的惡魔。

在創作領域,人工智能已經開始化身為畫家和作曲家,創作的音樂作品被用於電影和視頻遊戲。用戶可以通過Suno作曲,通過Midjourney繪畫。創作者與機器人互動,不僅能激發思維,還能獲得創作靈感。

然而,當作品進入類似ChatGPT等大型語言模型的“大腦”後,它也可能製造成千上萬個類似的抄襲品。在人工智能的世界裡,侵權問題尤為嚴重,保護知識產權難如登天。

過去,媒體行業經歷了多次革命。當新媒體如社交媒體和搜索引擎出現時,曾受廣告商青睞的電臺、電視和報紙受到了威脅。隨著 ChatGPT的面世,投資紛紛轉向大型語言模型,微軟的搜索引擎逐漸被Copilot取代,谷歌從搜索器轉向Bard和Gemini的研究。

展望未來,廣告不僅會出現在搜索引擎和社交媒體上,產品還能在聊天中不知不覺地滲透到人們的腦海。相比搜索引擎和社交媒體,聊天機器人更瞭解用戶的性格和需求,能夠在適當的時候悄然在耳邊提出建議。

聊天機器人帶來的隱私問題並不是新現象。在歐洲,ChatGPT的使用曾與歐盟《通用數據保護條例》(GDPR)出現衝突,意大利監管機構因此一度禁止了該服務。展望未來,“能聽、能看、能說”的聊天機器人可能會進一步加劇隱私方面的擔憂。

在新人工智能時代,用戶必須學會保護自己的隱私,選擇使用更安全的人工智能產品,並且不輕易與機器人分享重要的個人信息。

從國家層面來看,政府在擁抱人工智能的同時,必須重新定義人與機器合作的邊界,同時制定政策,確保個人信息和知識產權得到保護。

打开全文

ADVERTISEMENT

热门新闻

百格视频

你也可能感兴趣
 

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT