試想,有一天,人類能造出像自己一樣有智慧甚至更超群的機器人,那機器人是否會如人類當初背棄上帝一樣背棄人類呢?若戰爭爆發,
機器人的鋼鐵身段與人類血肉之軀,誰會更占優勢?
試想,人類是否會進入一個被AI取代的時代,地球未來新的主人又將是誰?在這個問題上,筆者發現,越優秀的地球人,對未來就越是悲觀。
美國《時代雜志》(TIME)羅列出了多位名人對人工智能發展趨勢的悲觀性看法。微軟公司創辦人比爾·蓋茲(Bill
Gates)稱,低度人工智慧可成為替代勞工的工具,但惟恐數十年后出現的“超級智慧”系統,會“厲害到令人擔憂”。
企業家、太空探索科技公司(SpaceX)創辦人、特斯拉汽車公司(Tesla)執行長馬斯克(Elon
Musk)相信:人工智慧是“我們最大的生存威脅”,“借助人工智能,我們將召喚出惡魔。在所有故事里出現的拿著五芒星和圣水的家伙都確信他能夠控制住惡魔,但事實上根本不行”。
科學家史蒂芬·霍金則公開警告說人工智能的發展可能意味著人類的滅亡。霍金說,這種技術會迅速演變并超過人類,那時將會出現電影《終結者》中想象的一幕。
“我們已經擁有原始形式的人工智能,而且已經證明非常有用。但我認為人工智能的完全發展會導致人類的終結”,因為“一旦經過人類的開發,人工智能將會自行發展,以加速度重新設計自己”,同時,“由于受到緩慢的演化的限制,人類不能與之競爭,最終將會被代替”。
霍金推測:“人工智能計算機可能在接下來的100年之內就將人類取而代之”,“如果這樣的事情成為了現實,我們必須確保計算機和我們站在同一戰線上。”如此,“我們的未來是一場不斷增長的科技力量與人類使用科技的智慧之間的競爭。”然而,人工智能的誕生“可能是人類歷史上最重大的事件,但不幸的是,也可能是最后一件”。
為什么科技科學界、商業界的領軍人物頻頻發出人工智能威脅論?原因其實很簡單。人類是有限的,人類不僅信息、資源、理性與智力均有限,人類的道德更是有限;人類的進步有限,人類控制AI的能力也將有限,而AI發展卻沒有極限。
所以,AI有一天或許會比“我們智人”更瘋狂!
沒有物理定律阻止粒子以某種方式組織起來,從而能比人腦中的粒子組合完成更高級的計算。所以,AI的爆炸性轉變是完全可能的,反制人類也是可能的。以有限的人類去控制一個無限的智能風險,豈能不悲觀?
所以,AI有一天或許會比“我們智人”更恐怖!
也許有一天AI會被壞人變成比核武器更加恐怖的武器。人類之所以沒有毀滅,是因為“恐怖均衡”。人類會不會有第三次世界大戰并且AI成為主導武器?答案是:不知道。但可以知道的是,戰爭之后人類還活著的話,一定回到史前時期。
AI有一天或許還會比“我們智人”更橫行!
當人工智能在技術上智勝金融市場,在發明上超過人類科學家,在操控能力上超過人類領袖,最終開發出“我們智人”根本弄不懂的武器來對付、操縱人類時,那就是人類的末日來了。
大地上誰將是未來地球的主人?AI或許比人類更有競爭力!大地上誰將是未來商業的主宰,很可能也是AI;如若不是,也一定是善用AI的智者!所以,我們不可不探究AI在商業領域特別是分析與決策領域的應用。
2025-04-29 22:21
2025-04-29 22:19
2025-04-28 12:37
2025-04-28 12:24
2025-04-24 15:08
2025-04-21 12:14
2025-04-21 12:11
2025-04-18 08:54
2025-04-18 08:53
2025-04-17 08:16