(資料圖)
近日,一些人工智能領(lǐng)域的專(zhuān)家指出,隨著越來(lái)越多的AI生成內(nèi)容在互聯(lián)網(wǎng)上發(fā)布,接受這些數(shù)據(jù)訓(xùn)練的人工智能最終可能會(huì)陷入混亂。一群來(lái)自英國(guó)和加拿大的科學(xué)家發(fā)布了一篇論文,試圖了解幾代AI相互訓(xùn)練后可能出現(xiàn)的情況。 在論文的一個(gè)例子中,經(jīng)過(guò)九次迭代的人工智能系統(tǒng)談?wù)摰膬?nèi)容變得喋喋不休,并以野兔為話(huà)題,而最初的材料實(shí)際上與中世紀(jì)建筑相關(guān)。
劍橋大學(xué)教授羅斯·安德森將這種“模型崩潰”現(xiàn)象比作大規(guī)模污染,表示我們?cè)诤Q罄锶鰸M(mǎn)了塑料垃圾,大氣中放滿(mǎn)了二氧化碳,而現(xiàn)在我們可能將讓互聯(lián)網(wǎng)上充滿(mǎn)胡言亂語(yǔ)。 據(jù)在線(xiàn)虛假信息監(jiān)管機(jī)構(gòu)NewsGuard的數(shù)據(jù)顯示,已有49個(gè)新聞網(wǎng)站似乎完全由人工智能撰寫(xiě)內(nèi)容,而市場(chǎng)營(yíng)銷(xiāo)和公關(guān)機(jī)構(gòu)也越來(lái)越多地將文案外包給聊天機(jī)器人。盡管如此,專(zhuān)家表示對(duì)于人工智能來(lái)說(shuō),人工生成的數(shù)據(jù)仍然十分必要,因?yàn)槿祟?lèi)語(yǔ)言具有很多自然變化和不可預(yù)測(cè)的結(jié)果。