開(kāi)源人工智能是過(guò)去一年最令人驚訝的科技之一。隨著OpenAI和谷歌(Google)等公司投入數(shù)十億美元打造更強(qiáng)大的人工智能,開(kāi)發(fā)人員可以免費(fèi)使用和調(diào)整的“開(kāi)放”模型縮小了性能差距。
只有一個(gè)缺點(diǎn):大多數(shù)開(kāi)源系統(tǒng)都不是很開(kāi)放。批評(píng)者指責(zé)他們的支持者“洗白開(kāi)放”——試圖從開(kāi)源的光環(huán)效應(yīng)中獲益,因?yàn)樗皇芷胀ㄉ虡I(yè)軟件產(chǎn)品的限制,但卻名不副實(shí)。
終于有動(dòng)力創(chuàng)造一個(gè)真正開(kāi)源版本的人工智能,但誰(shuí)也不能保證它的進(jìn)步會(huì)趕上開(kāi)源軟件,在過(guò)去20年里,開(kāi)源軟件在科技界發(fā)揮了關(guān)鍵作用。對(duì)于傳統(tǒng)的開(kāi)源軟件,如Linux操作系統(tǒng),代碼是免費(fèi)提供給開(kāi)發(fā)人員檢查、使用和調(diào)整的。所謂的開(kāi)源人工智能非常不同,尤其是因?yàn)榇蠖鄶?shù)現(xiàn)代人工智能系統(tǒng)從數(shù)據(jù)中學(xué)習(xí),而不是用代碼編程邏輯。
以Meta的Llama為例,只公開(kāi)決定模型如何響應(yīng)查詢(xún)的“權(quán)重”。用戶(hù)可以使用和調(diào)整它,但無(wú)法看到訓(xùn)練它的底層數(shù)據(jù),也沒(méi)有足夠的信息從頭開(kāi)始復(fù)制模型。
對(duì)于許多開(kāi)發(fā)人員來(lái)說(shuō),這仍然有一些明顯的好處。他們可以根據(jù)自己的信息調(diào)整和訓(xùn)練準(zhǔn)開(kāi)放模型,而無(wú)需將敏感的內(nèi)部數(shù)據(jù)交給另一家公司。
但不完全開(kāi)放是有代價(jià)的。Mozilla基金會(huì)(Mozilla Foundation)高級(jí)顧問(wèn)阿亞 貝迪爾(Ayah Bdeir)表示,只有真正的開(kāi)源技術(shù)才能讓人們?nèi)媪私饽切╅_(kāi)始影響我們生活方方面面的系統(tǒng),同時(shí)還能保證創(chuàng)新和競(jìng)爭(zhēng)不會(huì)被少數(shù)幾家占主導(dǎo)地位的人工智能公司壓制。
其中一個(gè)回應(yīng)來(lái)自開(kāi)源促進(jìn)會(huì)——它在20多年前就給出了開(kāi)源軟件的定義。本周,它給出了一個(gè)接近最終的定義,可能有助于塑造該領(lǐng)域的發(fā)展方向。
這不僅需要釋放模型的權(quán)重,還需要足夠的關(guān)于訓(xùn)練模型數(shù)據(jù)的信息,以允許其他人復(fù)制模型,以及系統(tǒng)背后的所有代碼。Mozilla和Linux基金會(huì)等其他組織也在推動(dòng)類(lèi)似的舉措。
諸如此類(lèi)的舉措已經(jīng)導(dǎo)致人工智能領(lǐng)域出現(xiàn)了更大的細(xì)分。許多公司在使用術(shù)語(yǔ)時(shí)更加謹(jǐn)慎——也許是考慮到OSI擁有“開(kāi)源”一詞的商標(biāo),并可能提起訴訟,以防止在其定義之外的人工智能模型上使用該術(shù)語(yǔ)。例如,Mistral將其N(xiāo)emo稱(chēng)為“開(kāi)放權(quán)重”模型。
除了部分開(kāi)放的系統(tǒng),完全開(kāi)放的模型也開(kāi)始出現(xiàn),比如艾倫人工智能研究所開(kāi)發(fā)的Olmo大型語(yǔ)言模型。然而,這個(gè)版本在人工智能領(lǐng)域是否會(huì)像在傳統(tǒng)軟件領(lǐng)域那樣產(chǎn)生巨大影響,目前還遠(yuǎn)不清楚。要做到這一點(diǎn),需要做兩件事。
首先,這項(xiàng)技術(shù)需要滿(mǎn)足足夠大的需求,以吸引大量的用戶(hù)和開(kāi)發(fā)人員。在傳統(tǒng)軟件方面,Linux服務(wù)器操作系統(tǒng)顯然是微軟Windows的替代品,為它贏得了大量用戶(hù),并得到了包括IBM和甲骨文在內(nèi)的微軟競(jìng)爭(zhēng)對(duì)手的大力支持。在人工智能領(lǐng)域,Linux沒(méi)有對(duì)等物。市場(chǎng)已經(jīng)變得更加分散,許多用戶(hù)會(huì)發(fā)現(xiàn)像Llama這樣的準(zhǔn)開(kāi)放大型語(yǔ)言模型已經(jīng)足夠使用。
開(kāi)源人工智能的支持者還需要更好地論證其安全性。這樣一種強(qiáng)大、通用技術(shù)的發(fā)布,任何人都可以使用,理所當(dāng)然地引起了廣泛的關(guān)注。
艾倫人工智能研究所前負(fù)責(zé)人奧倫·埃齊奧尼表示,許多恐懼都被夸大了。當(dāng)談到上網(wǎng)研究如何制造炸彈或生物武器時(shí):“你從這些[人工智能模型]中真正能得到的并不比你從谷歌中得到的多。這些信息到處都是——只是以不同的方式打包了。”他承認(rèn),在某些領(lǐng)域,讓人工智能更自由地使用可能會(huì)造成傷害,例如自動(dòng)化創(chuàng)建更多的在線虛假信息。
“封閉”的人工智能也有風(fēng)險(xiǎn)。但是,除非更徹底地研究了開(kāi)源技術(shù)的額外邊際風(fēng)險(xiǎn),以及潛在的好處,否則擔(dān)憂(yōu)仍將存在。
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...