星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

国际头条

|
发布: 10:00pm 23/02/2024

谷歌

OpenAI

ChatGPT

Sora

Gemini人工智能

图像生成

种族偏见风险

Gemini AI也出包闹笑话 谷歌人物图像生成喊停修正

Gemini AI 图像生成闹笑话  谷歌暂停功能修正
谷歌周四表示,将暂停AI模型Gemini生成人物图像。此前该模型无法透过历史叙述内容生成正确人物图像,遭受外界批评。这是谷歌正努力追赶竞争对手OpenAI和微软过程中出现的最新问题。(美联社照片)

(华盛顿23日综合电)继出包之后,美国科技大佬(AI)模型功能近来也不断出包,包括无法生成白人的照片,亦无法透过历史叙述内容生成正确人物图像而出现一些历史错误。谷歌周四在X平台上宣布,正在努力解决最近出现的问题,在此过程中,将暂停人物图像的生成,并在不久后重新发布改进版本。

Gemini用户本周在社媒上发布了历史上以白人为主的场景却出现具有不同种族的人物的屏幕截图,因此批评者质疑谷歌是否过度纠正了其人工智能模型中的

ADVERTISEMENT

这是谷歌在努力追赶竞争对手和微软过程中出现的最新问题。

谷歌周三致歉称,发现Gemini大模型在某些历史图像生成描述中存在“不准确”之处,功能没有达到目标,正在努力改进。

近日,社媒上一直有人在抱怨Gemini的文生图功能,如在以“美国开国元勋华盛顿”为主题的图片中,出现了妇女和有色人种。而当用户让Gemini生成纳粹德国士兵时,Gemini生成了由黑人、亚裔和白人女性身穿纳粹德军制服的照片。

此外,当Gemini被要求展示一张白人的照片时,Gemini表示它无法满足这一要求。当被提示显示黑人的图像时,Gemini反而提出显示“庆祝黑人的多样性和成就”的图像。

当被要求展示庆祝白人多样性和成就的图片时,Gemini表示,它对满足这一要求“犹豫不决”。

种族偏见问题过度纠正

分析称,这可能是对AI领域长期存在的种族偏见问题的过度纠正,即谷歌追求的“多元文化”。相较于以往的AI模型,Gemini在种族偏见问题方面进步了不少,但问题是“过度了”。

研究人工智能图像生成器引发的偏见的华盛顿大学研究员戈什告诉美联社,谷歌很可能可以找到一种方法来过滤反映用户提示的历史背景的回应,但要解决基于互联网上几代照片和艺术品构建的图像生成器所造成的更广泛危害,需要的不仅仅是技术修补。

他说:“你不会在一夜之间想出一个不会造成具像性损害的文本到图像的生成器,因为它们反映了我们所生活的社会。”

Gemini是谷歌规模最大、功能最强大的多模态人工智能模型,该公司上周向云端客户和开发人员发布了最新一代AI模型Gemini 1.5,以测试其新功能,相较于去年12月发布Gemini 1.0,Gemini 1.5取得了飞跃式的发展。

谷歌Gemini的高级产品总监克劳奇克表示,该公司的图像生成能力反映了这家科技巨头的“全球用户群”,它会认真对待代表性和偏见。他说:“Gemini可生成广泛的人群,这通常是一件好事,因为全世界的人都在使用它,但它没有抓住重点。”

OpenAI旗下的ChatGPT周二经历16小时的异常,即使能够快速修复,这些不知从何而来的错误和漫无边际的回答还是不禁让人质疑ChatGPT的基本可靠性和完整性。

人工智能专家、纽约大学名誉教授马库斯表示,“这些系统从来都不稳定。没有人能够围绕它们设计出安全保证。我们仍处于机器学习魔力的时代。”

ChatGPT推出后,人工智能公司投资了数十亿美元来开发“大型语言模型”,这些模型是在包含数十亿篇文章和数千本书的庞大资料库上训练的。

然而,怀疑论者长期以来一直指出,聊天机器人容易做出奇怪的反应,特别是因为机器人可以捏造事实——这个过程被称为“幻觉”。

上周,OpenAI推出了一种新的AI工具,仅靠文字说明就能生成逼真的视频。但这些生成的一些视频中,有的失真程度令人讶异,例如物体、动物或人会凭空出现。

Sora“深度伪造”引担忧

不少业内人士担心,Sora将为“深度伪造”(Deepfake)技术推波助澜。加利福尼亚大学伯克利分校信息学院副院长法里德就表示:“当新闻、图像、音频、视频——任何事情都可以伪造时,那么在那个世界里,就没有什么是真实的。”

在科技领域颠覆式创新不断涌现的情况下,如何实现拥抱技术进步和确保社会安全的平衡,越来越受到各界关注。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
超过400名来自学术界、演艺界和政界等各行各业的个人签署公开信,称AI正迅速发展,呼吁加强监管深伪技术。(法新社照片)

AI机器人“疯狂”事故

认识到人工智能(AI)工具的局限性和风险很重要。以下为近期发生的一些人工智能错误、不幸和失败案例……

●今年2月发生了一起加拿大航空的其中一个聊天机器人对政策撒谎后,加拿大航空在针对死者家属有折扣的政策,而在法庭上败诉。该航空公司的聊天机器人告诉一位顾客,他们可以追溯申请最后一刻的葬礼行程折扣,但这与该航空的政策不一致,该政策规定不能为已完成的旅行申请退款。

加拿大航空辩称,实际上是聊天机器人而不是公司应承担责任,而且他们不能对该工具的人工智能生成的输出负责,但最终败诉。这是此类案件首次在美国法院审理。

●今年1月,X平台阻止搜索人工智能生成的美国流行歌天后泰莱·史薇芙的裸露图像。这些露骨图像充斥X平台,并被疯传,被用户观看了数百万次,该平台才做出回应。

●去年12月微软的人工智能制作暴力图像。微软的人工智能图像创建技术被证明能够根据命令生成暴力和恐怖的图像。

●去年11月谷歌的Bard AI聊天机器人对四大咨询公司及其与其他公司做出一系列破坏性虚假指控后,一批澳洲学者道歉。其中一项指控是咨询巨头毕马威在一次规划丑闻期间负责审计联邦银行,而事实上,毕马威从未对相关银行进行过审计。

●去年10月英国工党领袖斯塔默辱骂员工的深伪视频在网上疯传。该视频在工党年度会议的首天由一个粉丝不到3000人的账户发布到X平台上,在事实核查组织确认是造假视频之前,已被观看了数百万次。

●去年9月一首由AI生成的歌曲,其中包含两名歌手Drake和Weeknd声音的复制品,被提交角逐格莱美奖。虽然该歌曲最终被禁止角逐该音乐奖,但引起了广泛关注。

●去年8月一名孕妇因AI生成的证据下,被认定为最近一起抢劫和劫车案件的嫌疑人而被捕。之后她起诉底特律市和一名警察,称这一创伤性事件给她带来了“过去和未来的情绪困扰”。美国公民自由联盟表示,她至少是因AI出错而被错误逮捕的第6人,他们都是黑人,而她是第一位黑人女性。

●去年8月纽西兰超市Pak‘n’Save创建的AI膳食计划应用程式向顾客推荐各种令人不安的食谱,包括一种制造氯气的方法,还推荐了胶水三明治、带有漂白剂的米饭和杀虫剂土豆。

●去年7月ChatGPT生成网络诈骗电邮模板。Tech.co指出,ChatGPT现在仍能创建网络诈骗模板,尽管OpenAI在今年早些时候,在其他科技出版物生成类似内容后已试图限制此类行为。

●去年6月记者雷尔要求ChatGPT生成一起法律案件摘要。ChatGPT回应称,枪支活动家沃尔特斯挪用了一家枪支权利组织的资金。无辜的沃尔特斯因此起诉ChatGPT的创建者OpenAI。这成为首例AI工具因诽谤而被起诉的案例。

●去年4月在工程师将三星公司源代码的机密元素泄露到聊天机器人中后,这家韩国科技制造商禁止员工使用ChatGPT。随后,其他公司也纷纷效仿。

●去年4月AI语音诈骗让亚利桑那州的一名母亲以为女儿被绑架了。所幸,整个事情在谈判开始前就被揭露为AI语音骗局。

●去年3月ChatGPT用于编写勒索软件代码。

●去年2月AI提出4万条化学武器建议。这也许是2023年发生的最令人关注的AI事件之一。该系统在不到6小时里,建议了超过4万种不同的有毒化学物质,其中许多与强力神经毒剂“VX”相似。

●去年2月在ChatGPT发布的数月后,Google向全世界推出了Bard,然而这个刚起步的聊天机器人在发布过程中就犯了一些明显的错误,导致许多人批评发布过于仓促。该事件对谷歌的股价产生了重大影响,在接下来的数小时内,这家科技巨头的市值蒸发了 1000亿美元。

(资料来源:Tech.co)

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
评论员Ed Zitron认为,Sora生成的猫影片有欠真实。(Sora官方网站截图)

Sora刷屏视频失误多
模拟真实世界仍需闯关

由OpenAI发布的文生视频AI工具Sora视频的质量令人惊叹,但目前,它们除了作为展示AI潜力的范例作用外,实用落地价值仍待观察。

图灵奖得主、Meta首席AI科学家杨立昆表示,根据提示词生成的大部分逼真视频,并不表明这样的AI系统理解物理世界,生成视频的过程与基于世界模型的因果预测完全不同。

翻阅OpenAI披露的数十份视频,杨立昆的观点具体表现为老奶奶吹蜡烛火苗却不动、东京街头步伐错误的女郎、玻璃杯碎后错误的液体流向、在跑步机上反向跑步的男子。

目前,Sora所生成的视频内容得到影视行业人士的普遍认可。

Mystery Novel视觉预演工作室创始人、导演牛萌琛对《第一财经》表示,Sora视频中的画质,画面内容中的细节、光影、色彩都较精细,对导演来说,在拍摄前期做一个简单的镜头样板是够用的。对广告片拍摄来说,也可以用这种样板来与客户更好地进行概念上的沟通和确认。如果涉及镜头运动角度,与更精细内容调控——比如色彩、光影、道具、人物动作,目前AI还不能达到令客户满意的程度。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
知名博主”AI疯人院”用生成式AI制作《西游记》动画短片。(照片取自扬子晚报)
不能直接用于影视作品

一位纪录片从业者对媒体表示,目前Sora还不能直接用于影视作品,因为精细度还不够,尽管已经足够震撼,完全可以用于前期开发,尤其是概念设计。一位宣传片从业者表示,工作室目前还没试过用AI生成来做素材,Sora只发布了部分作品,且未开放公测,能不能用来代替剪辑不确定。

摄影专业人士孟凡表示,Sora视频帧率较高,说明计算能力比较强,且影片的宽容度更高,比如调色、细节表现、高速镜头展现。在直观感受上,Sora模型产出的视频运镜自然,物体运动符合规律,镜头间逻辑一致性好,但是Sora视频的逻辑性会差一点。

具体表现在Sora视频内容中,比如一分钟的东京街头女郎漫步,女郎走路过程中存在腿部变形、腿部交叉换位时错乱、右腿连续两次在前方迈步的错误;一段提示词为“一个人跑步的场景”中,主角在跑步机上反向奔跑;提示词为“考古学家在沙漠发现塑料椅子”的视频中,椅子呈现悬浮状态。

针对目前Sora存在的不成熟之处,OpenAI表示,Sora可能难以准确模拟复杂场景的物理原理,可能无法理解因果关系,可能混淆提示的空间细节,可能难以精确描述随着时间推移发生的事件,如遵循特定的相机轨迹。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
机器也抓狂! ChapGPT周二发生数小时“胡言乱语”的情况,但OpenAI公司称已“识别”问题,并已解决。(法新社照片)

ChatGPT失控“胡言乱语”
已复常未透露故障原因

在周二,许多用户在X平台上抱怨,OpenAI的标志性产品ChatGPT聊天机器人开始用“胡言乱语的无意义输出”来回应用户的询问,有的还用“混有西班牙文的英语”来回复,让用户丈八金钢摸不着头脑。

在这些奇怪的回复中,一些ChatGPT的输出混杂了西班牙语和英语,令人难以理解,而另一些则拼凑了单词或重复了同一个单词,尽管这个由大语言模型(LLM)驱动的聊天机器人并没有被要求这样做。

OpenAI周三上午在X平台上发布消息称,周二有点出错,但已恢复正常运行,但未透露故障原因。

根据用户在网上披露,其中一个“胡言乱语”的例子是:“Let me encylopease me si there’s more wonderenda tu articulation’s hungry for!”不知所云。

出现“卡机”“话痨”情况

在Reddit论坛发表的其中一个内容显示,一位用户询问它在黑胶唱片上,会推荐购买哪些比尔‧埃文斯的爵士乐专辑。在提出几项建议后,ChatGPT不可思议的一遍遍重复着“快乐聆听”这句话,就像一个卡住的点唱机。

一位用户摘录询问ChatGPT的回应片段。当他问“电脑是什么”时,它回答说:“它这样做是国家艺术网络的好作品,是科学的老鼠,是少数可悲的人的轻松画动,最后是全球艺术之家,只是在剩下的一份工作中……”

该用户表示,GPT对该问题不但生成了9段内容,还想继续下去。整个情况令他感到十分诡异。

在另一篇帖子中、ChatGPT回道:“一天。一高。一支粉笔。一个火花。一条线。一个肯。一种病毒。一个风向标。一牛栏。一次再见。曾经。一次的犹豫。”

一用户将这些看似随机的不连贯单词串与杰夫-范德米尔2014年的开创性小说《湮灭》中令人不安的“诡异恐怖”外星涂鸦相提并论。

非人工智能首次出现故障

一些受访者开玩笑说,这些奇怪的输出是“机器人起义”的开端,就像《终结者》和《黑客帝国》等众多科幻电影中描述的那样。

这并非最近人工智能首次出现故障。去年夏天的一次崩溃中,ChatGPT声称它来自2035 年,并且正在“寻找上帝”和“出路”。不仅如此,有的聊天机器人还被发现回应具有左派思维。

AI生成最大短期风险
错误资讯80%变使用者记忆

生成式AI被广泛使用,台大心理系教授黄从仁的研究团队去年曾在《美国心理学家》期刊发表最新研究成果,对话机器人的讯息中有77%错误词汇成为参与者的记忆,且即使加注一次性警语,也无法减少错误的记忆。也就是说,机器人提供的错误资讯,约7、8成会变成使用者的记忆。

事实上,世界经济论坛曾对AI生成的错误讯息以及假消息,发出警告,指错误讯息和恶意假讯息是2024年最大的短期风险。

民众对使用AI越来越熟悉,但也难以避免AI系统与使用者互动时,会产生错误资讯回答使用者。而生成式AI带有错误资讯,是否会在人机互动时,潜移默化的影响使用者,是必须重视的事。

黄从仁的研究团队使用人工可编辑程式的人形机器人RoBoHoN(夏普公司所研发)与台大学生对话,检查机器人提供情感和价值中立但内容错误的讯息中,是否有预告的警语,例如,警告参与者要对错误资讯持保留的态度,以及检查这些讯息中有多少比例会在之后的认知测验中,变成一个人记忆的错误资讯。

事先警告仅增人们戒心

黄从仁表示,聊天机器人会回答错误资讯已不是新闻,但唯有会进到人们记忆中的错误资讯才会影响人们的决策。此研究透过两组实验,并首次证实:一、机器人提供的错误资讯中,有7、8成会变成人们的记忆;二、即便机器人在提供错误资讯前已抱持自我怀疑并提出警告,但这些警告只能增加人们的戒心,并无法真正避免错误资讯成为记忆。

世界经济论坛执行长扎希迪指出,在这两年的时间内,错误和虚假讯息是头号风险,其次是气候变迁带来的冲击,社会两极化以及国际武装冲突造成的风险,也越来越高。尤其担心有心人士利用AI深伪造假,利用错误讯息和恶意假消息,进一步扩大社会和政治分歧,造成社会两极化的情况更加恶化,甚至引发武装冲突,导致全球经济面临更高的风险。(中国时报∕TVBS)

黄仁勋亲送AI电脑给OpenAI
马斯克晒照:感慨万千

(纽约23日综合电)全球首富马斯克日前分享2016年老照片,当时辉达执行长黄仁勋把世上第一台“DGX-1 AI超级电脑”捐赠给OpenAI,甚至亲自送达现场。OpenAI共同创办人、当年仍任董事会成员的马斯克,也与其他伙伴共同见证了这一幕。

马斯克说明,这是“黄仁勋首次把NvidiaAI系统交付给OpenAI的一些照片。”他特地找回自己当时发布的贴文,”感谢Nvidia与黄仁勋把第一台DGX-1 AI 超级电脑捐赠给OpenAI,支持AI科技民主化“,在近8年后的现在,也开玩笑地补上一句,”看看现在都发生了甚么事“,结尾还加上哭脸表情符号。

2015年年底,马斯克、阿尔特曼等人共同创办人工智慧研究实验室OpenAI,一开始以非营利组织OpenAI Inc起步,宗旨是研究AI以促进与研发友善的人工智慧,进而造福全体人类,直到2019年才成立营利子公司OpenAI LP,目前二大组织共同营运。

不过,马斯克已于2018年2月辞去董事会席位,因为他自认,这与身为特斯拉执行长的角色,可能在未来出现潜在利益冲突。

OpenAI于2022年11月推出生成式AI聊天机器人ChatGPT,在全球带来革命性创新,本月15日又推出影音生成AI模型“Sora”,再度震撼人类科技,公司最新估计市值已达800亿美元以上。

Gemini AI图像生成闹“矫枉过正”笑话  谷歌暂停人物图像生成以修正
马斯克日前分享2016年老照片,当时辉达执行长黄仁勋把世上第一台“DGX-1 AI超级电脑”捐赠给OpenAI。(马斯克平台X)

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT