資訊> 正文

【天天新視野】胡泳:人工智能不智能

時間: 2023-02-02 11:05:51 來源: 胡泳

編者按:


(相關資料圖)

據《紐約時報》1月中旬報道,北密歇根大學的哲學教授Antony Aumann在為自己任教的一門世界宗教課程評分時,讀到了一篇“全班最好的論文”,追問之下學生坦誠是其用ChatGPT生成的。

ChatGPT的熱度從去年11月發(fā)酵至今。究其原因,OpenAI推出的這款AI聊天機器人似乎無所不能,功能非常強大,不僅能流暢地與用戶對話,甚至能寫詩、撰文、編碼……

ChatGPT爆火出圈,已經網羅了一眾流量——上線五天里突破百萬用戶大關,不到兩個月日活用戶過千萬。資本聞聲而動,Meta、微軟、BuzzFeed等紛紛向其拋出橄欖枝。微軟聯(lián)合創(chuàng)始人比爾·蓋茨日前更是給予ChatGPT高度評價,稱其能讓他窺見未來,整個方法和創(chuàng)新速度都令他印象深刻。

整體來看,ChatGPT就像一顆深水炸彈,由AI掀起的"地震"余波向各行各業(yè)蔓延開來。根據麥肯錫統(tǒng)計數據顯示,全球AI技術在通信、交通運輸及物流、金融服務、高新科技、醫(yī)療健康、電力及天然氣等領域的滲透率較高。

到底該如何看待這項重大突破但不完美的技術呢?北京大學新聞與傳播學院教授、CTR媒體融合研究院專家胡泳在其最新力作《流行之道》中,以AI在醫(yī)療行業(yè)的應用為例,給出了自己的看法。

你信任人工智能醫(yī)生嗎?

2022年1月22日,IBM在一份簡短聲明中,宣布將旗下“沃森健康”(Watson Health)業(yè)務分拆,出售給總部位于舊金山的投資基金 Francisco Partner。這項交易標志著“藍色巨人”正在放棄其在醫(yī)療保健領域的雄心,更加聚焦于構建混合云計算的能力。而從行業(yè)角度看,它意味著人工智能的雄心在醫(yī)療保健業(yè)遭遇重大挫折。

作為這家向人工智能轉型的企業(yè)近年來的明星業(yè)務,沃森健康最重要的產品可以幫助醫(yī)生診斷和治療癌癥。它是IBM最早也是最大的AI嘗試之一。然而,盡管為了打造這一增長引擎,IMB展開了一系列有針對性的價值數十億美元的收購,但沃森健康在爭取美國國內外市場份額上的進展并不順利,并且短期內也看不到盈利的前景。

在休斯敦的MD安德森癌癥中心,沃森健康于2013年首次部署認知計算技術,以幫助腫瘤學家從衛(wèi)生系統(tǒng)的大量研究和患者數據中挖掘洞見,并開發(fā)新的以NLP(神經語言程序)為基礎的工具來支持決策。

然而,到2018年,這兩個組織的合作陷入困境,MD安德森中心在花費超過 6000萬美元之后取消了該項目,原因是“存在許多不安全和不正確的治療建議實例”。

失敗的原因不一而足。醫(yī)療專家相信,沃森機器人醫(yī)生的困境凸顯了將AI用于治療復雜疾病的障礙,可能同時包括人力、財務和技術。比如,獲得具有廣泛代表性的患者群體的數據一直是一項挑戰(zhàn),而在另外一方面,這些疾病的結果往往取決于許多可能無法在臨床數據庫中完全捕獲的因素。

同時,科技公司缺乏深厚的醫(yī)療保健專業(yè)知識,如果它們不夠了解實戰(zhàn)的臨床工作流程,就會增加在病患環(huán)境中實施人工智能的困難。必須知道可以在哪里插入AI,以及 AI又能夠在哪些方面提供幫助,而一切都要以提高醫(yī)院的效率為準。

究其根本,在醫(yī)院中應用人工智能,首先是解決信任問題。在相當大的程度上,我們還是第一次見證人和機器人共處一室的復雜環(huán)境。當醫(yī)生首次與沃森交流時,他們發(fā)現自己處于相當困難的境地。一方面,如果沃森提供了與他們自己的觀點相一致的治療指導,醫(yī)生們對沃森的建議就看不出太多價值。超級計算機只是告訴他們本身業(yè)已知道的東西,而這些建議并沒有改變實際的處理方式。這可能會讓醫(yī)生放心,讓其對自己的決定更有信心。然而如果只是幫忙確認,機器人醫(yī)生值得在醫(yī)院里部署嗎?

另一方面,如果沃森提出了與專家意見相矛盾的建議,醫(yī)生通常會得出結論:沃森對癌癥無能為力。機器無法解釋為什么它的處理是合理的,因為它的算法太復雜了,不能被人完全理解。因此,這導致了更多的不信任和懷疑,許多醫(yī)生會忽略看起來異乎尋常的 AI 建議,并堅持自己的專業(yè)知識。

由此來看,沃森的腫瘤診斷問題是醫(yī)生根本不信任它。人類的信任往往基于我們對其他人如何思考的理解,以及對其可靠性的經驗了解,這有助于創(chuàng)造一種心理安全感。而AI對于大多數人來說仍然是相當新穎和陌生的,它使用復雜的分析系統(tǒng)進行決策,以識別潛在的隱藏模式和來自大量數據的微弱信號。

即使可以在技術上解釋(并非總是如此),AI的決策過程對于大多數人來說通常難以理解,和自己不明白的事情互動會引起焦慮,并使我們感覺失去了控制。許多人也不太了解許多AI實際工作的實例,因為它們常常發(fā)生在后臺。

相反,人們總能敏銳地意識到人工智能出錯的情況:谷歌算法將黑人分類為大猩猩;一個微軟聊天機器人在不到一天的時間里成為白人至上主義者;在自動駕駛模式下運行的特斯拉汽車導致了致命的事故。這些不幸的例子受到了媒體不成比例的關注,向社會發(fā)出了人類不能完全依賴技術的信息。機器學習并非萬無一失,部分原因是設計它的人不是萬能的。

具體到醫(yī)療保健領域,發(fā)生問題的也不是只有IBM。谷歌的DeepMind部門在開發(fā)了轟動世界的圍棋程序之后,也曾推動多項針對慢性病的醫(yī)療保健舉措。然而它目前也處于虧損狀態(tài),并在收集健康數據方面遇到了隱私擔憂。

雖說如此,用人工智能改進醫(yī)療保健業(yè)的努力還會繼續(xù)。原因很簡單:盡管它的效率只能實現40%到60%,然而這是一個價值萬億美元的行業(yè)。因此,用機器學習算法或可擴展的AI之類的優(yōu)雅工具使它得到顯著改善的想法,顯然還是非常誘人。

人工智能需要解決的三大問題

有多少人工,就有多少智能

在人工智能界,普遍可以聽到一個說法:有多少人工,就有多少智能。

這是因為,與傳統(tǒng)計算不同,人工智能可以在一系列尚未由人預編程的情況下做出決策。人工智能大部分是關于可以通過經驗學習和發(fā)展的系統(tǒng),通常用于執(zhí)行專業(yè)任務,如駕駛、玩策略游戲或進行投資決策。這個子集也被稱為認知計算,需要通過學習進行培訓。

機器學習需要喂給機器大量的數據,而這些數據大部分是需要人工標注的,這在機器學習當中叫作“監(jiān)督學習”(supervised learning),即根據輸入 - 輸出的樣本對子,學習一個將輸入映射到輸出的函數或模式,并依此模式推測新的實例。

舉例來說,要寫一個機器學習算法,讓它能夠在網上幫我找到符合我口味的衣服,就需要訓練一個能識別某種服裝的程序。首先需要的是數據,因為必須給機器學習算法標注一些樣本。訓練者先搜集很多圖片,然后把需要的標出正例。比如把所有襯衣圖片標注出來,其他未被標注襯衣的,就是負例。機器會通過這些樣本的標注,知道哪些是襯衣,哪些不是襯衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,讓程序識別淺色的襯衣,就要進一步把淺色襯衣的圖片再標注出來,這樣機器就會知道那些淺色的襯衣是主人更想要的。這樣的條件可以不斷趨向復雜,例如讓機器識別帶條紋的淺色襯衣,而所有這些對于數據的進一步處理,都需要人工來解決。

人的標注工作完成之后,就可以訓練機器學習算法,讓它不斷去看圖片,并對所看過的圖片加以總結。然后它自己總結出一個算法框架,知道大概往哪個方向學習。機器學習的目標就是利用人們輸入的數據,讓自身的錯誤識別率達到最低。這個目標達成之后,機器就學成出師,可以為人工作了。

學習如何學習

“智能”這一術語的使用常常導致人們對AI的能力和擬人化風險的誤解(這里的擬人化,是指將人類特征和行為分配給非人類事物)。今天可用的大多數 AI技術都是根據特定目標學習或優(yōu)化其活動,因此只能按照所傳授的內容進行操作。其能力的大小,反映了培訓的數據及培訓的質量,以及AI流程的設計情況。通常,仍會需要人工處理異常情況。

這意味著AI目前的形式很狹窄,只能專門用于特定的應用程序,它所遵循的流程和程序是不可遷移的。DeepMind應用程序可以勝過圍棋的最佳人類選手,但它在國際象棋中甚至無法擊敗普通人類玩家。

當人工智能開始變得真正聰明并能夠學習未被教授的行為時,將會發(fā)生重大變化。然而,這個技術里程碑是否可以實現尚無定論。

不知之不知

在人工智能開發(fā)當中,同樣存在“已知的未知”和“未知的未知”?!耙阎奈粗笔侵改J讲荒艽_定正確分類的例子。

其解決方案是,在不確定的例子上從人們那里獲得新標簽。例如,如果一個模式不能確定一張照片的主體是否是一只貓,就會要求人去驗證;但如果系統(tǒng)確定的話,就不會要求人去驗證。雖然在這方面還有改進的余地,但令人欣慰的是,模式的置信度與它的表現相關,人們可以認清模式不知道的東西有哪些。

另一方面,“未知的未知”是指模式對其答案有信心,但實際上是錯誤的。對人來說,這就產生了一個難題:需要知道人工智能算法何時工作,何時不工作。雖然電影推薦假如不是那么準確可能并不要緊,但一旦一個算法在自動駕駛汽車或醫(yī)療應用程序中表現不佳,其結果可能是毀滅性的。

人工智能系統(tǒng)的內部工作往往不透明,人類很難理解人工智能學習系統(tǒng)如何得出他們的結論。為了解決這個問題,設計者和觀察者已經討論過在AI系統(tǒng)中需要一定程度的解釋邏輯,以便檢查錯誤并讓人類學習和理解。

算法復雜性的挑戰(zhàn)

然而,人工智能系統(tǒng)復雜性的挑戰(zhàn)并不容易克服。事實證明,機器“知道”得越多,我們就越不了解它們。用于人工智能的深度學習方法涉及從簡單的構件中創(chuàng)建復雜的、分層的表征,以解決高層次的問題。網絡在層次結構的初始級別學習一些簡單的東西,然后將信息發(fā)送到下一個級別,在那里信息被組合成更復雜的東西。這個過程持續(xù)進行,每一級都從上一級收到的輸入中建立。

與此同時,層數越深,優(yōu)化算法就越難。最終,它們變得如此困難,以至于數據科學家無法解釋它們是如何工作的。在某一點上,用于深度神經網絡的算法以某種方式,奇跡般地產生了準確的結果——但科學家和工程師并不完全了解結果是如何產生的。人工智能使機器能夠進行預測,但很難讓計算機解釋它是如何得出結論的。這不僅提出了信任問題,而且還產生了潛在的法律和責任問題。在人工智能獲得全力推進之前,這方面有很多東西需要探索和考慮。

責任編輯:李倩

分享到:版權聲明:凡注明來源“流媒體網”的文章,版權均屬流媒體網所有,轉載需注明出處。非本站出處的文章為轉載,觀點供業(yè)內參考,不代表本站觀點。文中圖片均來源于網絡收集整理,僅供學習交流,版權歸原作者所有。如涉及侵權,請及時聯(lián)系我們刪除!

關鍵詞: 人工智能 機器學習 應用程序

責任編輯:QL0009

為你推薦

關于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權所有 © 2020 跑酷財經網

所載文章、數據僅供參考,使用前務請仔細閱讀網站聲明。本站不作任何非法律允許范圍內服務!

聯(lián)系我們:315 541 185@qq.com