“讓我們享受一個漫長的‘AI之夏’,而不是毫無準備地進入秋天?!?/p>
《瞭望東方周刊》特約撰稿胡震洲?編輯陳融雪
26年前,德裔美國神經(jīng)科學家克里斯托夫·科赫與澳大利亞哲學家大衛(wèi)·查默斯打賭。科赫說,大腦神經(jīng)元產(chǎn)生意識的機制將于2023年被發(fā)現(xiàn),查默斯表示不可能。
當2023年過去,這場賭注揭曉,哲學家勝過神經(jīng)學家,大腦神經(jīng)元產(chǎn)生意識的機制仍未被發(fā)現(xiàn),但科技圈開始更熱烈地討論——AI(人工智能)會有意識嗎?
從通過資格考試,到進行藝術“創(chuàng)作”, 當整個世界對AI的強大能力感到興奮時,那些曾經(jīng)存在于《機器姬》《銀翼殺手》等電影里的情節(jié),似乎正在走向現(xiàn)實。
響指
“最讓人恐懼的事情是,如果讓OpenAI團隊從頭再做一遍,他們未必能夠創(chuàng)造出ChatGPT,因為這些人也不知道,‘涌現(xiàn)’是怎么出來的。”2023年底,清華大學腦與智能實驗室首席研究員劉嘉接受鳳凰衛(wèi)視專訪時說,這就好像打了一個響指,它就出來了。
他相信人工智能正在“涌現(xiàn)”意識,為此搬出了有“AI教父”之稱的杰弗里·辛頓。杰弗里·辛頓在2023年5月接受CNN采訪時說: “人工智能正在變得比人類更聰明,我想要‘吹哨’提醒人們應該認真考慮如何防止人工智能控制人類?!?/p>
在AI領域,杰弗里·辛頓的成就舉足輕重。他是2018年圖靈獎得主,在谷歌任職期間擔任副總裁兼工程研究員,幾乎一生都在從事AI相關的研究工作。他主攻的神經(jīng)網(wǎng)絡和深度學習,是AlphaGo(一款圍棋人工智能程序)、ChatGPT等AI程序高速進化的基礎科學,OpenAI的聯(lián)合創(chuàng)始人兼首席科學家伊利亞·蘇茨克弗也是他的學生。
2022年2月,伊利亞·蘇茨克弗發(fā)帖稱“或許如今的大型神經(jīng)網(wǎng)絡萌生了意識”時,谷歌 DeepMind 首席科學家默里·沙納漢回復說:“從同樣意義上講,一大片小麥可能顯得有點像意大利面?!?/p>
2023年10月26號,《麻省理工科技評論》采訪伊利亞·蘇茨克弗時問起此事,他笑著反問:“你知道什么是玻爾茲曼大腦嗎?”
這是一個以19 世紀物理學家路德維?!げ柶澛牧孔恿W思想實驗,宇宙中的隨機熱力學波動被想象成大腦突然出現(xiàn)和消失的原因。
“我覺得現(xiàn)在的語言模型有點像玻爾茲曼大腦。你和它說話時大腦就出現(xiàn),說完后大腦就噗地一下消失了?!币晾麃啞ぬK茨克弗稱,ChatGPT 已改變了很多人對即將發(fā)生事情的期望,從“永遠不會發(fā)生”變成了“將比你想象的更快發(fā)生”。
天塹
“沒有人能夠不重視杰弗里·辛頓的看法。”在美通公司創(chuàng)始人王維嘉看來,ChatGPT把握高階相關性的能力已遠超人類,對世界的理解也遠超普通人。他認為大模型“幻覺”是聯(lián)想能力,是意識覺醒的證明——人類正是憑借聯(lián)想能力,發(fā)現(xiàn)了萬有引力、相對論和DNA雙螺旋。
大模型“幻覺”也引起了北京智源研究院院長、北京大學計算機學院教授黃鐵軍的重視。
在騰訊新聞發(fā)起的《20年20人20問》中,黃鐵軍認為大模型“幻覺”可能是超越既有知識體系的創(chuàng)新,例如有啟發(fā)意義的文學、藝術和科幻作品,或者新的洞見、思想或學說,是知識體系不斷擴展的源頭活水。他甚至表示,沒有“幻覺”,就沒有真正智能。
事實上,盡管人們對于意識的探索已有上千年歷史,但在關于意識究竟是什么、如何判定一個人或物是否有意識這點上,一直沒有取得決定性的突破。
1714年,德國哲學家萊布尼茨發(fā)表《單子論》,提到一個思想實驗:“必須承認,僅僅靠機械的運動、數(shù)值,是無法解釋知覺的存在的。想象一個機械裝置,我們不知它有無知覺。因此,我們將自己縮小,走進其中,可以看清機器運行的所有細節(jié)、過程,也可以理解過程背后的力學原理。甚至,我們還能預測機械將如何運轉。然而,這一切似乎都與這機器的知覺無關。觀測到的現(xiàn)象,與知覺之間,似乎總有一個天塹一般,總是無法相互勾連?!?/p>
時至今日,這道“萊布尼茨天塹”仍橫亙在人類面前。
不過,這沒有妨礙360集團創(chuàng)始人周鴻祎公開斷言:“人工智能一定會產(chǎn)生自我意識,留給人類的時間不多了?!?/p>
2023年3月,他在中國發(fā)展高層論壇上表示,現(xiàn)在的大型語言模型參數(shù)可以看作是腦容量里神經(jīng)網(wǎng)絡的連接數(shù),人腦至少有100萬億,當大模型參數(shù)到達10萬億時,可能就會自動產(chǎn)生意識。
2023年10月31日,杭州云棲小鎮(zhèn),觀眾在以“計算,為了無法計算的價值”為主題的2023云棲大會“人工智能 +”展館參觀人工智能產(chǎn)品及應用(黃宗治/攝)
群嘲
事實上,這不是科技圈第一次討論人工智能是否在覺醒。
上一次的討論是在2022年6月,入職谷歌七年的研究員布萊克·萊莫因稱,他發(fā)現(xiàn)了一個驚天秘密——公司正在研發(fā)的人工智能聊天機器人LaMDA已經(jīng)覺醒,有了自我意識,但谷歌方面卻試圖掩蓋這一切。
為了證明自己并非胡說八道,他把一份21頁的聊天記錄公布在了互聯(lián)網(wǎng)上,希望大家看到,從阿西莫夫機器人三定律到中國禪宗公案,LaMDA都給出了語義通順的答句。
但他幾乎成了笑話,飽受了毫不客氣的群嘲。
美國紐約大學心理學系教授加里·馬庫斯說他“是高蹺加長版的胡說八道”。
研究自然語言處理模型的美國加州大學伯克利分校教授埃邁德·赫瓦賈說得更簡短卻直接:“誰真正熟悉這些模型的系統(tǒng),誰就不會說這些模型已經(jīng)覺醒的蠢話?!?/p>
在清華大學人工智能國際治理研究院副院長、人工智能治理研究中心主任梁正看來,關于人工智能是否有自主意識的爭論并非單純技術領域的學術探討,還關乎企業(yè)合規(guī)性的基本堅守。
“一旦認定人工智能系統(tǒng)出現(xiàn)自主意識,很可能會被認為違反第2版《人工智能設計的倫理準則》白皮書的相關規(guī)范。”他說。
這一由美國電氣和電子工程師協(xié)會2017年發(fā)布的規(guī)范明確:“根據(jù)某些理論,當系統(tǒng)接近并超過通用人工智能時,無法預料的或無意的系統(tǒng)行為將變得越來越危險且難以糾正。并不是所有通用人工智能級別的系統(tǒng)都能夠與人類利益保持一致,因此,當這些系統(tǒng)的能力越來越強大時,應當謹慎并確定不同系統(tǒng)的運行機制?!?/p>
風險
梁正表示,有時技術的發(fā)展會超越人們預想的框架,在不自覺的情況下出現(xiàn)與人類利益不一致甚至相悖的情況。
比如“曲別針制造機”假說,就描述了一個通用人工智能在目標和技術都無害的情況下,對人類造成威脅的情景——假設某個人工智能機器的終極目標是制造曲別針,盡管目的看上去對人類無害,但當它使用人類無法比擬的能力,把全世界所有資源都做成曲別針,就會對人類產(chǎn)生傷害。
“不僅要關注大模型的潛在機會,還要關注風險和缺點,這一點非常重要。”谷歌首席科學家杰夫·迪恩說。
讓AI的價值觀和人類的價值觀對齊,已成為當下的熱門話題。
對此,黃鐵軍稱:“當人類智能高于AI智能時,AI是可控的助手,可以被人類調教為越來越可信的助手;但當AI智能高于人類智能,全面超越人類的AGI(通用人工智能)出現(xiàn)時,問題就轉化為AGI是否相信人類,而不是人類是否相信AGI。主動權不在人類一邊?!?/p>
2023年3月,全球1000多名技術專家聯(lián)名發(fā)布《暫停大型人工智能研究》公開信。
在這份呼吁“所有人工智能實驗室立即暫停至少6個月的比GPT-4更強大的人工智能系統(tǒng)的訓練”的公開信中,包括蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克、特斯拉和SpaceX公司老板埃隆·馬斯克和人工智能領域頂尖專家、圖靈獎得主約書亞·本吉奧在內的科技巨頭寫道:“具有與人類競爭智力的人工智能系統(tǒng)可能對社會和人類構成深刻的風險”“讓我們享受一個漫長的‘AI之夏’,而不是毫無準備地進入秋天?!?/p>
大膽假設,在一個擁有更智能的人工智能的世界里,人類怎么辦?
“有一種可能性,按照今天的標準可能很瘋狂,但按照未來的標準不會那么瘋狂,那就是許多人會選擇成為人工智能的一部分。這可能是人類試圖跟上人工智能的方式?!币晾麃啞ぬK茨克弗說,“起初,只有最大膽、最冒險的人才會嘗試這樣做?!?/p> 責任編輯:魏蔚