人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

點擊關注哦

人類第一次意識到人工智能的概念,還是來源於二戰時期,英國了不起的數學家圖靈的創意。

這個近乎“神”一般的男人憑藉一己之力破解了德國的恩尼格碼,使得盟軍提前兩年獲得了勝利,而他設計用來破解德軍密碼的機器“圖靈機”,就是我們現代電腦的鼻祖,現在人類計算機領域的最高獎項,便是“圖靈獎”,但是圖靈對人類的貢獻遠遠不止一臺開創了新紀元的電腦機器,還有他對這種機器超前的設想,那就是“人工智能”。

人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

人工智能機器人

人工智能在科學上有著嚴格的定義,分別是弱人工只能階段和強人工智能階段,如今世界各國都在拼命的發展這項科技,中國甚至把人工智能列入到國家發展規劃中。

但是迄今為止人類依然處於人工智能的起步階段,甚至遠遠算不上弱人工智能,引用著名科幻小說作家劉慈欣的一句名言,“現在的人工智能,前面有多少智能,後面就有多少人工”,華為創始人任正非也說過,現代的人工智能就是大數據和統計學。

人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

人工智能機器人

人工智能的發展雖然目前看來遠遠不需要顧慮,但是不少的科學家和商業人士卻對此表示出很大的忌憚,比如已逝的著名物理學家霍金就曾經說過,人工智能不可遏制的發展最終一定會導致人類的滅絕,美國著名的企業家埃隆馬斯克也多次表示,自己對人工智能的未來發展並不樂觀,因為人類根本無法控制這樣的力量,越來越多的人開始關注人工智能的潛在威脅,讓很多人開始認真的思索這件事,人工智能的發展是否真的會超出人類的控制。

人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

人工智能機器人

在弱人工智能階段,這項技術的確是可以造福人類,極大的方便我們的生活,但是麻煩就在於,科學家對人工智能的定義並不是我們現在看到的這樣,他們試圖創造一種在大腦結構上完全不亞於人類的“新物種”,而且這個智能的發達程度絕不是人類能夠輕易比擬的。

我們如今生活的一切基礎,包括人類在這顆星球上擁有的地位,在很大程度上都是來源於我們的大腦智慧,如果人類的智慧可以被電腦輕易超越,那麼仔細想想智能物種與其他物種之間的關係,似乎不難理解那些名人的顧慮和擔憂。

人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

人工智能

人類對科技的掌控其實遠遠沒有我們看到的那麼牢固,科技是一把雙刃劍,可以造福人類,也可以傷害人類,而人工智能的發展無疑會帶來極大的隱患,人類之所以能夠佔據今天的主導地位,就是因為我們用智慧讓科技為我們服務,如果有一天科技本身擁有了智慧,那人類存在的價值有體現在哪裡呢?我們又怎麼保證擁有如此高等智慧的“新文明”不會對人類本身產生惡意呢?

對人工智能的看法就是對文明的看法,如果我們相信只要擁有智慧那麼這個物種就是善良的,那人工智能倒也不用擔心,但現實告訴我們,絕非如此,人工智能的隱患遠遠超過所有人的想象。

人工智能有多危險?霍金、比爾蓋茨等眾多大佬都反對,你怎麼看?

人工智能機器人

詩韻說:對於人工智能的觀點和認知是人類開發這項技術最大的障礙,或許也是我們最大的保護傘,很多人都認為人工智能的威脅距離我們很遠,但其實稍稍看向過去,我們就會發現科學的發展速度遠遠超過我們每個人的預期,在技術真正成熟之前,發現它的問題並及時糾正,不也是我們每一個人需要關心的問題嗎?

相關推薦

推薦中...