摘要:近日,一篇在上成為了網友熱議的話題。在這種結構改變幾個月后,微軟宣布注資億美元。與微軟的合作關系是基于一個重要的前提,即微軟有權將的部分技術商業化。網友紛紛稱早已應該更名為。
編譯?| 禾木木
出品 |?AI科技大本營(ID:rgznai100)
OpenAI 如何以 10 億美元的價格出售其靈魂:GPT-3 和 Codex 背后的公司并不像它聲稱的那樣開放。
當金錢成為障礙時,最好的意圖可能會被破壞。
近日,一篇“How OpenAI Sold its Soul for $1 Billion”在 Reddit 上成為了網友熱議的話題。
Alberto Romero 的一篇文章追溯了 OpenAI 從非營利實體成為“營利上限”實體的歷史和發展,為了金錢出賣了自己原有的“為人類造福”的宗旨。
OpenAI 成立于 2015 年,是一家非營利性研究機構,它的愿景是構建出安全、對人類有益的通用人工智能(AGI),由伊隆 · 馬斯克、Sam Altman 等人宣布出資 10 億美元成立。
短短4年時間,OpenAI 已經成為全世界最具盛名的 AI 研究機構。
2019 年,OpenAI 轉變成了一家名為 OpenAI LP 的營利性公司,由名為 OpenAI Inc 的母公司控制。這時的 OpenAI 成為了一家「利潤上限」機構,將投資回報限制在原始金額的 100 倍。也就是說,如果你投資 1000 萬美元,最多你會得到 10 億美元。看起來回報率不錯。
在這種結構改變幾個月后,微軟宣布注資 10 億美元。OpenAI 與微軟的合作關系是基于一個重要的前提,即微軟有權將 OpenAI 的部分技術商業化。正如我們在 GPT-3 和 Codex 上看到的那樣。今年 5 月末,微軟的官方網站便報道了他們用 GPT-3 的技術賦能內部商業產品,為用戶服務。
當 OpenAI 因金錢關系與大型商業公司達成合作協議,還能相信他會信守承諾嗎?從最初的愿景出發開發展人工智能嗎?
OpenAI 是一個人工智能研究實驗室,但它的雄心和自身所擁有的資源相比天差地別。必須獲取足夠的資源支持,其中,金錢始終是排在了第一位。
在 GPT-3 論文橫空出世之后,外界的一個流行圍觀方式就是幫他們算成本,據估計 OpenAI 訓練 GPT-3 耗費了 1200 萬美元——僅僅是用于訓練。
GPT-3 是一個大規模語言模型,光參數量就已達到 1750 億。如果沒有交易,他們很難獲得這么雄厚的研究經費。所以當 OpenAI 需要投資的時候,發現微軟當時正等著給自己提供云計算服務。于是他們和擁有云服務的微軟形成了合作,至于代價,就是一種未公開的,將其系統商業化的晦澀許可。
這樣,一方可以獲得計算資源,一方可以達到盈利,真是一個雙贏的結果。
早在,2020年2月時,MIT Technology Review 記者 Karen Hao 的一篇調查文章探究了微軟與 OpenAI 的合作。披露了 OpenAI 與公開宣稱的內容與內部的運營方式存在不一致之處,為什么一家以確保所有人擁有更美好未來為愿景的公司突然決定為「stay relevant」吸收大量私有資金?從非盈利到盈利的轉變引發了公眾甚至公司內部的強烈批評。
艾倫人工智能研究所負責人 Oren Etzioni 表達了懷疑的態度:我不同意非盈利組織無法具備競爭力的觀點…… 如果規模更大、資金更充裕就能做得更好,那么今天 IBM 仍將是世界第一。
曾為 Vice News 撰稿的 Caroline Haskins 則不相信 OpenAI 仍會忠于它的使命:「人類從未因為依靠風投機構而變得更好。」
從技術角度來看,OpenAI 當前的研究方向重點是需要更大算力與更大數據驅動的神經網絡,這就需要很多金錢的支持。只有比肩科技巨頭的投入才能在這條道路上走下去。但正如 Etzioni 所說的,金錢并不是在 AI 領域里實現最先進成果的唯一途徑,有時需要創造性地思考新的想法,而不是靠堆更多的算力,或是更多的數據。
GPT-2、GPT-3「危險」語言生成器
2019 年初,已經成為營利性公司的 OpenAI 發布了一個強大的語言生成模型——GPT-2,能夠生成接近人類的自然語言文本。盡管 GPT-2 在當時是一個巨大的飛躍,但研究人員認為其像一只“危險的怪獸”,所以不能開源出來。工程師們擔心 GPT-2 會被用來生成假新聞、垃圾信息和誤導信息。
但在不久之后,OpenAI 又認為不存在明顯被濫用的證據,因而將其開源出來。
羅格斯大學教授 Britt Paris 曾表示:「這看起來就像是 OpenAI 在利用人工智能可能給人類社會帶來的恐慌。」大多數人把 GPT-2 的報道視為一種宣傳策略,他們認為該系統其實并不像 OpenAI 聲稱的那樣強大。從營銷的角度來看這確實可以吸引注意力,但 OpenAI 否認了這些指控。
如果 GPT-2 沒有 OpenAI 宣稱的那么強大,那為什么要讓它看起來比實際更危險呢?如果它真的性能強大,為什么僅僅因為「沒有發現被濫用的有力證據」而完全開源?無論如何,OpenAI 似乎都沒有遵循自己的道德標準。
2020 年 6 月,GPT-3 隨后以 API 的形式向外界提供。OpenAI 似乎認為這個比 GPT-2 大 100 倍,更強大的新系統足夠安全,可以與世界分享。他們設置條款逐個審查每個訪問請求,但他們仍然無法控制系統最終用于什么目的。
他們甚至在文章中承認, 如果 GPT-3 落入壞人之手可能會發生一些問題。例如“誤導性信息、垃圾郵件、網絡釣魚、濫用法律、政府內容,學術欺詐、社會工程,再到性別、種族和宗教偏見。”
他們認識到了這些問題,但仍然決定讓用戶付費測試。并且通過 API 發布,為什么要通過 API 發布它而不是開源模型?OpenAI 回答說,這是為他們正在進行的AI 研究、安全和政策努力提供資金。
一句話總結就是:“負責”保護人類免受 AI 傷害的公司決定讓人們使用一個能夠制造虛假信息和危險偏見的系統,這樣他們就可以負擔昂貴的維護費用。看起來這并不是什么「對所有人有益的價值」。
所以,當時社交網絡上出現 GPT-3 有害的討論就是順理成章的了。Facebook 人工智能負責人 Jerome Pesenti 寫了一條推文,在推文中舉了一個例子,談到 GPT-3 可能會生成加劇種族與性別歧視的文本。
在一項利用 GPT-3 獨特性的嘗試中,UC Berkeley 的計算機系學生 Liam Porr 讓系統寫了一篇能提高寫作效率的文章,并將其分享了出來。這篇文章騙過了很多人,甚至登上了 Hacker News 的榜首。試想,如果像他這樣沒有惡意的學生都能夠設法用 AI 寫的文章騙過所有人,一群懷有惡意的人會用它做什么?比如傳播假新聞?
除了傳播假新聞,另一個危害是傳播人類無法區分的假新聞。這一點也被 OpenAI 在一篇文章中認可、甚至強調了:
人類在檢測 GPT-3 175B 生成的較長文章時的平均準確率僅略高于 52%。這表明,GPT-3 能夠繼續生成人類難以區分的、長度約為 500 字的新聞文章。
Codex and Copilot,侵權了嗎?
幾周前,OpenAI、GitHub和微軟聯合發布了 Copilot ,這是一個基于 Codex 之上的 AI 結對編程助手。
然而,卻引來了強烈批評,因為 Copilot 是用 GitHub 公共存儲庫的開源代碼盲目訓練的。
以為用戶在 Hacker News 上指出了使用 Copilot 可能存在的法律問題,比如:
AI 生成的代碼屬于我還是 GitHub?
生成的代碼用什么許可證?
如果生成的代碼侵權,誰來擔責或采取法律行動?
GitHub 首席執行官 Nat Friedman 回答說成果屬于操作者,但是其他問題并未回應。
另外,著名開源開發者 Armin Ronacher 也在 Twitter 上分享過 Copilot 抄襲大量受版權保護代碼的例子。
還有用戶稱,「有直接證據表明 Copilot 直接復制了 GPL 的大量代碼。證明這是在商業環境中使用的非常危險的工具。」
不過,最讓人想不通的是,Copilot 是在數千名開發人員生成的開源代碼上訓練的,然后GitHub 或 OpenAI 又將這一系統出售給相同的開發人員使用。
對此,程序員兼游戲設計師 Evelyn Woods說,「這感覺就像是當面嘲笑開源。」
OpenAI 現在的真實愿景到底是什么?
他們是不是與微軟緊密相連,以至于忘記了自己「為人類進步」而奮斗的初衷?還是說他們真的以為自己擁有最好的工具和人才來踐行這條路線,即使將靈魂出賣給一個大型科技公司也在所不惜?我們是否真的愿意讓 OpenAI 按照它的愿景來構建未來?還是說我們希望我們的愿景更加多樣化,并將其與經濟利益分離?
OpenAI在邁向更加復雜的人工智能道路上占據了主導地位,當然,也有許多其他有潛力的機構在做相關的工作,這些機構并沒有與金錢產生直接的聯系,因而也受到了外界廣泛的關注。
就目前來看,大型科技公司的目標似乎是并不是建立一個滿足科學好奇心的通用人工智能,也不是建立一個最安全、最負責、最道德的人工智能。他們的首要任務是賺錢!他們會不惜一切做到這一點,即使這意味要走上一條模糊的道路,而我們大多數人都會避開這一道路。
OpenAI 的聯合創始人馬斯克甚至也認同這些批評:
馬斯克:我覺得 OpenAI 應該再開放一點。
在 Reddit 上,Alberto Romero 的文章也引起了網友的討論。
網友紛紛稱:OpenAI 早已應該更名為“ClosedAI”。
也許 OpenAI 公司扔在堅持他們最初的使命,但他們不能為了達到目的不擇手段。因為這些手段可能會損害更高的目的。
我們想要 AGI 嗎?從科學的角度來看,答案不可能是否定的。人們對于科學的好奇心是沒有極限的,然而,我們應該時刻評估潛在的危險。核聚變是非凡的,但核彈不是。
我們想不惜一切代價實現 AGI 嗎?從道德的角度來看,答案不可能是肯定的。這些快速發展的技術將對我們所有人產生影響,所以我們應該注意到這個問題。
我們正在快速地更新這些深刻改變人們生活的技術。但是,如果只關心自己的利益和目標,無論是 OpenAI 還是其他人,最后都應該對后果承擔很大的責任。
對此,你怎么看呢?
參考鏈接:
https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4
https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
https://news.ycombinator.com/item?id=27676939
https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/
https://www.theverge.com/2019/11/7/20953040/openai-text-generation-ai-gpt-2-full-model-release-1-5b-parameters
https://syncedreview.com/2019/11/05/openai-releases-1-5-billion-parameter-gpt-2-model/
本文由AI科技大本營翻譯,轉載請注明出處。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/119823.html
在最近的大模型戰爭中,OpenAI似乎很難維持霸主地位。雖然沒有具體的數據統計,但Claude3.5出現后,只是看網友們的反響,就能感覺到OpenAI訂閱用戶的流失:既然Claude3.5比GPT-4o好用,為什么我們不去訂閱Claude呢?而這長達數月的批評聲中,OpenAI似乎盡顯頹勢,除了GPT-4o mini這個小模型以外,似乎再也沒有什么創新點。甚至就在前幾日,GPT-4o還被開源的大模...
摘要:近日,微軟總裁布拉德史密斯對外公開表示,微軟將為美國軍方無條件提供最佳的全面的技術服務。在內部壓力及外部輿論轟炸下,谷歌于今年月正式宣布放棄此次合作,不再為美國軍方提供包括云計算在內的技術服務。在谷歌、亞馬遜員工聯名上書,反對與美國軍方合作的同時,微軟卻走了一條完全相反的路。近日,微軟總裁布拉德·史密斯對外公開表示,微軟將為美國軍方無條件提供最佳的、全面的技術服務。在他看來,人工智能等創新性...
摘要:傳市值達億美元的云計算公司尋找買家據彭博社報道,市值達億美元的云計算科技公司正在與高盛合作,與潛在買家就可能達成的出售事宜進行協商。報道稱,這次對與私募股權公司達成交易持開放態度。尚未對置評請求進行回應。 據彭博社報道,市值達130億美元的云計算科技公司Citrix正在與高盛合作,與潛在買家就可能達成的出售事宜進行協商。這已經不是Citrix第一次尋找買家。早在2015年晚些時候,迫于激進投...
摘要:特別是在中國更為明顯,所以如果企業想在巨大的中國市場上做生意就需要遵守他們的規則。顯然,美國云計算公司要想在中國市場取得勝利,切記要密切關注騰訊阿里巴巴和華為,還有中國的規則。 想必大家還記得,前段時間被媒體鋪天蓋地報道的關于AWS中國將以約3億美元出售給光環新網的消息。?雖然最后證實這是一個謠言,但事實往往...
閱讀 1994·2021-11-23 10:08
閱讀 2325·2021-11-22 15:25
閱讀 3268·2021-11-11 16:55
閱讀 762·2021-11-04 16:05
閱讀 2575·2021-09-10 10:51
閱讀 703·2019-08-29 15:38
閱讀 1572·2019-08-29 14:11
閱讀 3479·2019-08-29 12:42