首秀“翻車”后,谷歌高管警告:AI聊天機(jī)器人會(huì)產(chǎn)生錯(cuò)覺(jué)
2023-02-12 12:00
文本設(shè)置
小號(hào)
默認(rèn)
大號(hào)
Plus(0條)
在谷歌最新推出的聊天機(jī)器人Bard意外“翻車”并導(dǎo)致股價(jià)大跌后,美東時(shí)間周六,該公司搜索引擎高管在接受媒體采訪時(shí)表示,要警惕聊天機(jī)器人中人工智能的陷阱。谷歌高級(jí)副總裁兼谷歌Search負(fù)責(zé)人普拉巴卡爾·拉加萬(wàn)在接受采訪時(shí)表示:“我們現(xiàn)在談?wù)摰倪@種人工智能,有時(shí)會(huì)導(dǎo)致出現(xiàn)某種我們所謂的錯(cuò)覺(jué)……機(jī)器會(huì)以一種令人信服但完全編造的方式來(lái)表達(dá)自己。”他補(bǔ)充說(shuō),目前人工智能行業(yè)的基本任務(wù)之一,就是將這種情況控制在最低限度。 | 相關(guān)閱讀(財(cái)聯(lián)社)
47
騎行人張浩
永遠(yuǎn)在路上
谷歌高管普拉巴卡爾·拉加萬(wàn)的這個(gè)提醒實(shí)際上也是當(dāng)下業(yè)內(nèi)很多分析人士對(duì)生成式人工智能的一個(gè)擔(dān)憂,不用說(shuō)匆匆上馬之后一上來(lái)就回答錯(cuò)問(wèn)題的Brad,就連ChatGPT,也已經(jīng)被人證實(shí),在學(xué)術(shù)界人士向其查閱一些文獻(xiàn)的時(shí)候,ChatGPT有時(shí)候會(huì)胡編亂造。這或許給未來(lái)ChatGPT的應(yīng)用帶來(lái)一定隱憂。我們之前使用普通搜索引擎的時(shí)候,還能從不同的結(jié)果對(duì)照下找出正確答案,但是如果以后ChatGPT代替了搜索引擎,我們可能都沒(méi)有辦法證實(shí)其是不是在說(shuō)謊。