哥(gē)本哈根大(dà)學的(de)研究人(rén)員(yuán)已經證明(míng),處理(lǐ)複雜(zá)問題的(de)完全穩定機器學習(xí)算(suàn)法近乎無法實現,這(zhè)凸顯了(le)對(duì)人(rén)工智能局限性。
以 ChatGPT 爲代表的(de) AI 浪潮下(xià),機器能比醫生更準确解讀醫學掃描圖像、能比人(rén)類更安全地駕駛汽車,但再優秀的(de)算(suàn)法也(yě)存在弱點。
以自動駕駛汽車讀取路标爲例,如果有人(rén)在路标上貼有标簽,人(rén)類駕駛員(yuán)的(de)注意力通(tōng)常不會被分(fēn)散,而機器由于和(hé)接受訓練的(de)路标存在差異,很容易出現分(fēn)心。
該小組負責人(rén)阿米爾・耶胡達約夫(Amir Yehudayoff)教授說:“現實生活中存在著(zhe)各種各樣的(de)噪音(yīn),人(rén)類習(xí)慣于忽略這(zhè)些噪音(yīn),而機器卻會感到困惑”。