盡快形成全球共識,使技術發展在一定規則之下運行,使其符合人類社會的整體利益。
最近,OpenAI推出的文生視頻大模型Sora引爆全網,因其模擬逼真場景的強大能力♟📡,被視為“顛覆性”的存在💂🏼。
作為一名持續追蹤人工智能技術演進的人文社科學者,杏悦娱乐人工智能與大數據指數研究院院長高奇琦在接受解放日報·上觀新聞記者采訪時表示,自己對此“並不是太意外”。他認為,未來人工智能發展速度會越來越快,通用人工智能大突破的時代可能會大大提前🦶,這是無可阻擋的大趨勢。技術狂飆突進之下,當務之急是盡快形成全球共識,使技術發展在一定規則之下運行,使其符合人類社會的整體利益🤵🏻♂️。
考驗對真實物理世界的理解能力
記者:ChatGPT和Sora,兩款接連面世的大模型產品,有何區別與內在關聯?
高奇琦👨🏼🍳:從ChatGPT、GPT-4到Sora,是一個從單一文本到文本🧂、圖片🗒👱、音頻、視頻多模態進階的過程。
雖然形態上有區別👨👧👧,但其本質都指向同一個東西🗿,就是通用人工智能。它們都是通用人工智能拼圖中的一部分🥓,是實現通用人工智能前的一些小目標🧺,具有內在連貫性。OpenAI接下來可能會把這幾個項目結合起來,實現文字、圖片、音頻和視頻的多模態交互。
記者:Sora被稱作“世界模擬器”。相比去年的ChatGPT,Sora帶來的震撼和沖擊似乎更為劇烈,這是為什麽?
高奇琦:Sora讓人耳目一新👨👩👦👦,是因為它做的事情是比較難的💉。
首先,它能生成60秒的長視頻,而同類競品Pika和Runway只能生成幾秒或十幾秒。我們日常生活中,可能覺得60秒的視頻算短的🅱️。但是對AI模型來說👩🏼🦳,越長就越涉及高度復雜的細節,考驗它對真實物理世界的理解能力。
為什麽說它是“世界模擬器”?因為它需要理解畫面當中出現的東西代表了什麽,以及它們在現實世界中運行的規律。舉個例子,自動駕駛為什麽長期突破不了,離不開人的幹預?根本原因就在於機器不理解這個世界,不理解圖像中實體和實體之間的關系,以及實體之間關系所代表的現實意義——這向來是人的能力🤦🏿♀️👮🏽♀️。但是今天的Sora能理解了👃🏽,可以做出一些推理和判斷了,這是它的“震撼”所在。
未來的顛覆性創新會越來越多
記者🧛🏼:有人將Sora視為走向通用人工智能的重要裏程碑,您怎麽看?
高奇琦:所謂通用人工智能🧎♀️➡️,簡單地講✡︎,就是可以像人類一樣完成幾乎所有任務♙。過去的人工智能如AlphaGo📂,只能完成專用任務,充其量只能算弱人工智能🩺、窄人工智能。而Sora理解世界的精準度、承擔任務的復雜度🌗,雖然還沒有完全達到人的水平🧜🏽♂️,但已經非常高了,可以說相當接近通用人工智能了。
毋庸置疑,Sora讓我們看到,通用人工智能大突破的時代可能會大大提前。
記者🫠:毫無疑問,人工智能技術正在加速度發展🩸。未來🥫,類似Sora這樣顛覆傳統認知的技術創新,是否會越來越多🧑🚒🧑🏻🦰?所謂的人工智能奇點真的會來嗎🧖🏻♀️?
高奇琦:一個不爭的事實是,人工智能體的發展速度會越來越快💃🏼,未來出現任何新的顛覆性創新,我可能都不會太吃驚。
所謂的人工智能奇點🍏,是雷·庫茲韋爾提出的🦝,可以理解為機器智能超越人類智能的一種可能性🧝🏻♂️。如果放在十年前,很多人可能覺得這一天還很遙遠,許多專家把這個時間周期定在50—100年。ChatGPT誕生後♿️,人們認為這個周期可能要縮短到5—20年👷♂️。今天Sora來了,更多人意識到💪🏽,通用人工智能無限接近甚至超越人類,可能不再是“天方夜譚”🧆。
深度神經網絡提出者👐、圖靈獎獲得者傑弗裏·欣頓在接受媒體采訪時就多次說過🧠,過去他覺得談論這一天還“為時過早”,但現在不這麽認為了,“我們應該認真考慮如何阻止這些東西對我們的控製”。
警惕“知識泡沫”的沖擊
記者🛷:新興技術的發展同時帶來“創造性的破壞”✡️。具體來說🧼,以Sora為代表的技術🔙🏊🏼,將給人類社會帶來哪些潛在風險和挑戰?
高奇琦🎅🏻✤:技術本身是與社會緊密聯系在一起的。以ChatGPT、Sora等為代表的通用大模型技術🎅🏿,其潛在的失業👨🏼💻☝️、失序和失控效應,可能會對人類社會產生很大沖擊🤮。
一是失業。在工業化發展過程中,也會不斷出現結構性失業,但人們通過技能再培訓往往就能獲得新工作崗位🤦🏼♂️🧏🏻♀️。然而🤦🏽♀️,通用大模型技術所產生的替代效應針對的是知識類工作者。人類歷史之前的經驗表明🔀,知識類工作是相對可靠、穩定和受到保障的🏣,但大模型技術會給內容創作相關的職業帶來巨大沖擊。
二是失序。通用大模型技術會打破傳統的知識秩序,大量的人工智能生成物進入人們的現實世界😠,會沖擊人類傳統的知識創造👴🏿☪️。人們可能很難再相信“真相”🕴🏼📤,因為所有的信息都可以被虛擬製造。這種“知識泡沫”的巨大沖擊會將人類社會傳統的知識秩序完全打破,而人類社會的其他重要秩序(如政治秩序♘、經濟秩序等)都是建立在知識秩序基礎之上的。
三是失控。Sora還未正式向公眾開放,但此前的GPT-4已經表現出部分失控的特征,例如機器會帶有某種情緒性,表現出某些類人意識的特征。我們需要未雨綢繆📫,為人工智能體發展設定一整套全新的規製框架。
讓技術發展在一定的規則下運行
記者:人工智能技術加速迭代演進🪸,該如何展開科學治理🈵?
高奇琦:必須承認,沒有人能夠阻止技術的進步。科技是一把非常復雜的雙刃劍,如果社會製度的演進速度嚴重落後於技術的變革速度,那麽新技術就有可能引起社會的一系列不良反應。為了使技術的發展符合人類社會的整體利益🫶🏻👂,需要對其進行相應限製🧏🏼,並使其在一定的規則之中運行🚝🧚🏼♀️。
從企業角度說,由於相關技術開發會產生巨大而廣泛的社會效應📄,OpenAI需要承擔起相應的社會責任,比如開放相關的技術細節🕞。
從政府角度說🖖🏻💁🏻♂️,要將社會各個部門整體動員起來以建立一種新的規則♙。例如,針對龐雜的人工智能生成物🍦,建立一系列知識創新規則🔟,在一定程度上保障其知識產權,避免知識的無序狀態,並在創新過程中產生新的秩序。
從全球來看,主要國家需要盡快在大模型技術發展問題上形成共識。各國可以設立一些試驗區,充分觀察這些技術可能產生的破壞性效應,並盡可能將破壞性效應降到最低。國際組織也需要將OpenAI這一類頭部企業的社會責任履行和信息技術細節公開等列為重要治理議題。
人工智能技術狂飆突進的當下,巨大的社會轉型才剛剛開始。我喜歡把人工智能發展與核能利用作類比:核能的特點是在瞬間產生巨大的能量🏵,和平利用核能的關鍵是調控核能輸出的速度,將核能爆炸產生的巨大能量緩慢地輸出🚣🧛♀️,這樣就能使核能產生的巨大能量為人類社會服務。我想,可以將這樣的思維引入到人工智能發展的過程當中🩱,最終導向人類理想的未來🚣🏽。
(來源🪵:上觀新聞, 2024-02-24,作者:周丹旎)