LBS老院長(zhǎng)最新文章:人工智能的進(jìn)步無法取代人類的“決斷”
指南者留學(xué)
2024-10-28 15:18:28
閱讀量:1021
<p>在科技飛速發(fā)展的今天,人工智能(AI)正逐漸融入我們的日常生活,但它是否能夠替代人類的判斷力?倫敦商學(xué)院Andrew Likierman教授在其最新文章《人工智能的挑戰(zhàn):人類判斷的不可替代性》中深入探討了這一問題。盡管AI在處理數(shù)據(jù)和執(zhí)行任務(wù)方面表現(xiàn)出色,但其缺乏意識(shí)、情感和道德判斷,無法完全取代人類在決策中的核心作用。 Likierman教授的分析揭示了AI的局限性,并強(qiáng)調(diào)了人類判斷力在復(fù)雜決策中的不可替代性。這篇文章不僅為我們提供了對(duì)人工智能能力的深刻洞見,也提醒我們?cè)诩夹g(shù)不斷發(fā)展的背景下,如何更好地發(fā)揮人類的判斷力。</p>
<p> </p>
<p><strong>Andrew Likierman爵士 倫敦商學(xué)院管理實(shí)踐教授、前院長(zhǎng)</strong></p>
<p><br />他的研究專注于人的判斷力,相關(guān)著作將于2025年出版。他曾在公共和私人部門擔(dān)任多個(gè)重要職務(wù),包括英國(guó)財(cái)政部常務(wù)董事和英國(guó)國(guó)家審計(jì)辦公室非執(zhí)行主席。他還在多個(gè)企業(yè)擔(dān)任非執(zhí)行董事,并獲得了《星期日泰晤士報(bào)》年度非執(zhí)行董事獎(jiǎng)。</p>
<p> </p>
<p><strong>人類的好消息:人工智能無法進(jìn)行決斷</strong></p>
<p> </p>
<p>盡管人工智能(AI)取得了顯著進(jìn)步,但人類的判斷力依然不可替代。這一事實(shí)強(qiáng)調(diào)了批判性思維和決策能力的重要性。</p>
<p>在我們?nèi)粘I钪?,人工智能的身影無處不在。比如,假設(shè)我們?nèi)コ匈徫铮谑浙y臺(tái)上掃描條形碼看似標(biāo)志著購物的結(jié)束,但實(shí)際上,這些條形碼數(shù)據(jù)為人工智能提供了豐富的信息源。</p>
<p> </p>
<p>庫存管理程序利用天氣和需求趨勢(shì)的大數(shù)據(jù),結(jié)合我們的掃描數(shù)據(jù),為貨架上推薦合適的替代產(chǎn)品。同時(shí),先進(jìn)的攝像頭跟蹤店內(nèi)消費(fèi)情況,有助于識(shí)別可能的盜竊行為??偛康娜斯ぶ悄芟到y(tǒng)則為戰(zhàn)略規(guī)劃、市場(chǎng)趨勢(shì)分析和財(cái)務(wù)建模提供支持。這些場(chǎng)景與溫馨的鄰里商鋪形成了鮮明對(duì)比。鄰里商鋪中的每位顧客、每次交易都有人與之互動(dòng),店主負(fù)責(zé)訂貨、進(jìn)貨、防盜和提升收入。而人工智能的廣泛應(yīng)用常被視為非人化的象征,甚至被認(rèn)為是一種末日景象。</p>
<p><br />然而,直接用非人化的人工智能來替代充滿人情味的店主,實(shí)際上反映的是我們對(duì)被取代的恐懼,而非現(xiàn)實(shí)。人工智能系統(tǒng)需要人類來設(shè)定目標(biāo)、編寫程序、訓(xùn)練數(shù)據(jù)、檢查數(shù)據(jù)質(zhì)量和解釋結(jié)果。人工智能需要人類設(shè)定目標(biāo)(或?yàn)闆]有目標(biāo)的程序設(shè)定任務(wù))、編寫程序、訓(xùn)練數(shù)據(jù)、檢查數(shù)據(jù)質(zhì)量和解釋結(jié)果。正如這一點(diǎn)所示,若數(shù)據(jù)質(zhì)量不高,人工智能的結(jié)果也只會(huì)是“垃圾”。在當(dāng)今快速發(fā)展的世界中,人類的判斷力至關(guān)重要,我們需要清理數(shù)據(jù)中的噪音,解讀機(jī)器產(chǎn)生的結(jié)果,包括ChatGPT提供的答案。如果沒有人來做出判斷,大數(shù)據(jù)僅僅是大量的數(shù)字而已。</p>
<p> </p>
<p>機(jī)器存在以下幾個(gè)明顯的局限性:</p>
<p><br />沒有意識(shí)和意圖:機(jī)器無法產(chǎn)生自我意識(shí)或意圖。無法進(jìn)行抽象思考:機(jī)器不能進(jìn)行抽象思考或形成個(gè)人觀點(diǎn)。無法理解語境:機(jī)器不善于通過語境辨別相關(guān)性,難以理解隱喻、諷刺或幽默。不受道德和信仰約束:機(jī)器沒有道德、信仰或個(gè)人志向,缺乏自我效能。缺乏情感和同理心:機(jī)器無法體驗(yàn)情感或建立情感紐帶。無法預(yù)測(cè)隨機(jī)行為:機(jī)器無法預(yù)測(cè)個(gè)體特質(zhì)、情境變化或潛在錯(cuò)誤。信息不完整:機(jī)器無法彌補(bǔ)信息的缺失,可能混淆相關(guān)性和因果性。這些局限性在我們工作和生活中的重大決策時(shí)尤為明顯。與同事、競(jìng)爭(zhēng)對(duì)手、局勢(shì)變化或家庭成員互動(dòng)時(shí),面臨的挑戰(zhàn)往往更為復(fù)雜。</p>
<p><br />判斷力可以定義為整合相關(guān)知識(shí)、經(jīng)驗(yàn)與個(gè)人特點(diǎn),從而做出決策并形成觀點(diǎn)的能力。我們運(yùn)用判斷力的基礎(chǔ)是自我意識(shí),了解自己應(yīng)該信任誰、信任什么,理解自己的感受和信念;而判斷力的表現(xiàn)則體現(xiàn)在做出選擇的方式及實(shí)現(xiàn)選擇的能力上。即使機(jī)器能夠完成許多任務(wù),它仍然無法做出真正的判斷——機(jī)器并不是機(jī)械的人類。即便所謂的“通用人工智能”得以實(shí)現(xiàn),也無法填補(bǔ)這些空白。</p>
<p><br />這并不是說人類在所有情況下都優(yōu)于機(jī)器。相反,機(jī)器在某些情況下可能會(huì)有相對(duì)優(yōu)勢(shì)。例如,機(jī)器能夠快速一致地執(zhí)行任務(wù),保持中立和專注,不會(huì)感到疲倦、情緒波動(dòng),也不會(huì)被貪婪或恐懼影響,亦不會(huì)因?yàn)閼偾槎中?。但是認(rèn)為機(jī)器能夠在所有情況下完全替代人類的假設(shè)顯然過于簡(jiǎn)單。因此,就算機(jī)器能夠借助人工智做到很多事情,它也無法做出判斷——機(jī)器并不是機(jī)械的人類。</p>
<p><br />Eric Topol博士在他的《深度醫(yī)療》一書中指出,人工智能在一些醫(yī)學(xué)領(lǐng)域,比如放射學(xué),表現(xiàn)優(yōu)于人類,因?yàn)樗軌驕p少人為錯(cuò)誤。在護(hù)理領(lǐng)域,人工智能也有優(yōu)勢(shì),因?yàn)樗梢赃h(yuǎn)程監(jiān)控病人。然而,人工智能在復(fù)雜的心理支持方面仍顯不足,因?yàn)槠洳痪邆?amp;ldquo;細(xì)致入微的觀察能力”。Topol博士認(rèn)為,理想的狀態(tài)是人類與機(jī)器協(xié)同合作,讓機(jī)器處理繁重的任務(wù),從而讓人類專注于他們最擅長(zhǎng)的工作——與病人交流。</p>
<p><br />人工智能的進(jìn)步并不會(huì)削弱人類判斷力的重要性,反而會(huì)使人類的核心貢獻(xiàn)更加突出。AI與人類的協(xié)作能夠提供更高質(zhì)量的服務(wù),而那些能夠認(rèn)識(shí)到人工智能能力和局限的人,將會(huì)超越那些不了解這些的人。總之,人工智能不是一場(chǎng)零和游戲。它的進(jìn)步與人類的判斷力相輔相成。未來的決策和工作將需要人類的判斷力與機(jī)器的輔助相結(jié)合,這正是高級(jí)管理人員的主要職責(zé),也是他們高薪的原因。</p>