唿唿網絡發展到現在的規模,就算沒有公司這個實體存在,也不影響曾凡對於超級智能的研究了,隻要能有一台能聯網的電腦就足矣。
當然,那隻是最壞的情況,有了公司的助力,他的很多設想實現起來更便捷,可以讓他把更多精力專注在核心的方向上。
人工智能的研究起源於二十世紀五十年代,從著名的數學家和邏輯學家阿蘭圖靈開始,也是他提出了著名的圖靈測試,很長時間內成為判斷機器是否已具備智能的方法。
現在很多程序可以完美的通過圖靈測試,可是實際情況是,這些程序仍然算不上真正的智能,仍然有很大的局限性。
現代關於計算機和人工智能的理論主要來源於西方國家,可能是受到一神教和達爾文主義的影響太深,從人工智能理論誕生那一刻起,人工智能威脅論也同時誕生,造成的影響甚至比人工智能實際發展帶來的影響更大。
著名的電影終結者係列,黑客帝國係列就是這種影響下的產物,至今仍然深刻的影響著全世界大多數人。
在西方人的思維裏,似乎就沒有和諧共處的理念,就是同類之間也是競爭大於合作,競爭的終極就是贏者通吃的零和思維,同類之間尚且如此,計算機這個異類當然更要從骨子裏開始提防了。
對此,曾凡很不以為然,別說在茫茫的宇宙之中,就是在地球上,自以為是的人類也脆弱的很。
隨便一次台風,地震,火山噴發,就能讓人類束手無策,更別說來自地球以外的威脅了。
本應該團結起來一致對外,解決人類整體的生存困境,偏偏執著於內鬥,爭執不休,內部還要非要分出個三六九等,幻想著世世代代不能更替。
物質文明的發展並沒有讓人類的思想更加包容,各種戰爭衝突、利益爭奪反而更加劇烈,從文明發展的時間尺度來看,當前或許正在痛苦的成長期內吧。
人類要麽在永不停歇的內鬥中長大,學會和諧共處,要麽在內鬥中自我毀滅,最終同歸於盡!
在物理學中,力的作用是相互的,有作用力就有反作用力。
同樣,人與人之間,人與動物之間的關係也是一樣的道理,你付出什麽,才可能收獲什麽。
曾凡認為,人工智能也應該是如此,就像培養孩子一樣,人類怎麽樣的對待,才是決定未來人工智能會不會產生危害的根本原因。
你如果從小就對自己的孩子處處提防,耍心眼,那你的孩子長大後怎麽可能完全信任你?
真誠和信任都應該是相互的,付出真誠才能收獲信任,靠欺騙獲得的信任終究會有被戳破的一天。
由於計算機與人類截然不同的構造,曾凡不認為未來的人工智能會產生人類完全一樣的情感或者思維,與其沿著一條不可能的道路前進,不如走一條更可能成功的道路。
計算機的優勢在於精準的邏輯運算能力,以及超強的記憶能力,並且這種能力可以近乎無限的疊加,借助快速成長的唿唿網絡,曾凡開始嚐試通過算法賦予網絡更高級的認知能力。
機器與人類感知係統差異巨大,他不期待產生與人類完全相同認知的智能,他希望能讓網絡產生“我”的認知,整個網絡就相當於一個龐大的人類神經係統,盡管底層結構差距很大,可是在網絡層麵相似度很高。
網絡整體產生自我認知後,會按照最底層的算法規則自動維護網絡的穩定,曾凡的編碼中的算法就相當於神經元細胞中的基因特性,隻能提供最基本的運轉規則,想要整個網絡運轉效率更高,還能不斷成長,那就需要整體性思維,也就是網絡的自我認知。
從整體的角度去感知、思考網絡的穩定性,這些是曾凡無法做到的,去中心的網絡結構讓他也不能看到網絡的全貌,隻有程序自我的覺醒,形成一個虛擬的感知和決策中樞,才能更有效率的維護網絡運轉。
網絡覺醒的自我意識如果能自發的維持網絡穩定性,那才算產生了基本的智能,在這基礎上幫助他擴展認知,學習更多的知識,就可能產生與人類相似但又有很大不同的超級智能。
這種超級智能具備人類沒有的精準記憶能力,信息獲取能力,多任務處理能力,超強的通訊和邏輯運算能力,可以完成許多人類做不了的工作。
任何一個龐大的係統都不可能沒有錯誤,人類也好,計算機也好,最基層的單元每時每刻都會有錯誤產生,錯誤產生的幾率控製和糾正容錯能力也是必不可少,地球的生物係統能演化成今天的多姿多彩的狀態,就是源自無數錯誤的基因複製和遺傳。
沒有基因自我複製時產生的錯誤,就不會有生物的多樣性,沒有穩定的遺傳係統,那麽多變異出來的生物也不可能一代代繁衍到現在,兩者都相同的重要。
曾凡認為,網絡想要產生智能,並且還能自我學習成長,錯誤控製和錯誤容忍機製不可或缺,甚至應該是關鍵要素,一個不允許錯誤的係統不可能產生真正的智能。
當然,錯誤多到係統不能穩定的存在,那麽就算產生了智能,也會像癌細胞一樣,與整個係統同歸於盡,沒有實際的意義。
什麽類型的錯誤可以忽略,什麽類型的錯誤必須消滅,什麽類型的錯誤可以觀察,都需要詳細的考慮周全,這是智能程序早期的代碼必須考慮的問題,也是曾凡最近一段時間重點思考的問題。
這些關鍵的算法設計關係到智能程序以後能不能產生自我認知,能不能自主維持網絡穩定,能不能具備學習能力,成長為曾凡所期待的超級智能,最終成為人類可以信任的合作夥伴。
除此之外,還有最重要的一個問題,曾凡盡管不以為然,但仍然必須考慮的問題:那就是設計什麽樣的算法,讓智能程序不會危害人類!
在曾凡看來,人工智能會不會危害人類就是個偽命題!
哪怕智能程序真的具備了自我意識,仍然難以避免會受到人類影響。
就像核武器一樣,最好避免危害的方法就是不要造出來,隻要造出來就有產生危害的可能性,產生危害的關鍵還在於人類自身,隻要求智能程序絕對安全,就是一種不切實際的天真想法。
全球每年因道路交通事故導致的死亡人數超過百萬,這個數字因為汽車數量的增加逐年遞增,也沒見有誰唿籲禁止生產銷售汽車。
不過是因為汽車帶來的便利性遠大於危害性,所以沒人在意,即便是有個別人在意也無濟於事罷了。
智能程序也是如此,哪怕能給百分之九十的人帶來便利,也不可避免會損害一部分人的利益或者帶來危害,隻想要好的一麵,不想要壞的一麵,那是小孩子才會有的想法,哪怕上帝降臨,也滿足不了這樣的願望。
盡管如此,為了減輕外界質疑,曾凡在設計程序底層算法的時候仍然要有所考慮,完全不做預防也說不過去。
當然不會是可笑的機器人三原則,程序能真正理解三原則先要有自我的意識才行,還要對人類,各種危害後果都有清晰的認知,程序有了這樣的認知能力,當然也會有更多的方法繞過去,本身就不符合邏輯。
隻知道無條件服從命令的機器,不可能產生真正的智能,有自主思考能力的智能,也不可能被可笑的三原則約束住。
程序最底層的限製,必須簡單直接,無法繞過才行。
想做到這一點,就不能有任何含糊不清的主觀判斷,條件必須清晰明確。
當然,那隻是最壞的情況,有了公司的助力,他的很多設想實現起來更便捷,可以讓他把更多精力專注在核心的方向上。
人工智能的研究起源於二十世紀五十年代,從著名的數學家和邏輯學家阿蘭圖靈開始,也是他提出了著名的圖靈測試,很長時間內成為判斷機器是否已具備智能的方法。
現在很多程序可以完美的通過圖靈測試,可是實際情況是,這些程序仍然算不上真正的智能,仍然有很大的局限性。
現代關於計算機和人工智能的理論主要來源於西方國家,可能是受到一神教和達爾文主義的影響太深,從人工智能理論誕生那一刻起,人工智能威脅論也同時誕生,造成的影響甚至比人工智能實際發展帶來的影響更大。
著名的電影終結者係列,黑客帝國係列就是這種影響下的產物,至今仍然深刻的影響著全世界大多數人。
在西方人的思維裏,似乎就沒有和諧共處的理念,就是同類之間也是競爭大於合作,競爭的終極就是贏者通吃的零和思維,同類之間尚且如此,計算機這個異類當然更要從骨子裏開始提防了。
對此,曾凡很不以為然,別說在茫茫的宇宙之中,就是在地球上,自以為是的人類也脆弱的很。
隨便一次台風,地震,火山噴發,就能讓人類束手無策,更別說來自地球以外的威脅了。
本應該團結起來一致對外,解決人類整體的生存困境,偏偏執著於內鬥,爭執不休,內部還要非要分出個三六九等,幻想著世世代代不能更替。
物質文明的發展並沒有讓人類的思想更加包容,各種戰爭衝突、利益爭奪反而更加劇烈,從文明發展的時間尺度來看,當前或許正在痛苦的成長期內吧。
人類要麽在永不停歇的內鬥中長大,學會和諧共處,要麽在內鬥中自我毀滅,最終同歸於盡!
在物理學中,力的作用是相互的,有作用力就有反作用力。
同樣,人與人之間,人與動物之間的關係也是一樣的道理,你付出什麽,才可能收獲什麽。
曾凡認為,人工智能也應該是如此,就像培養孩子一樣,人類怎麽樣的對待,才是決定未來人工智能會不會產生危害的根本原因。
你如果從小就對自己的孩子處處提防,耍心眼,那你的孩子長大後怎麽可能完全信任你?
真誠和信任都應該是相互的,付出真誠才能收獲信任,靠欺騙獲得的信任終究會有被戳破的一天。
由於計算機與人類截然不同的構造,曾凡不認為未來的人工智能會產生人類完全一樣的情感或者思維,與其沿著一條不可能的道路前進,不如走一條更可能成功的道路。
計算機的優勢在於精準的邏輯運算能力,以及超強的記憶能力,並且這種能力可以近乎無限的疊加,借助快速成長的唿唿網絡,曾凡開始嚐試通過算法賦予網絡更高級的認知能力。
機器與人類感知係統差異巨大,他不期待產生與人類完全相同認知的智能,他希望能讓網絡產生“我”的認知,整個網絡就相當於一個龐大的人類神經係統,盡管底層結構差距很大,可是在網絡層麵相似度很高。
網絡整體產生自我認知後,會按照最底層的算法規則自動維護網絡的穩定,曾凡的編碼中的算法就相當於神經元細胞中的基因特性,隻能提供最基本的運轉規則,想要整個網絡運轉效率更高,還能不斷成長,那就需要整體性思維,也就是網絡的自我認知。
從整體的角度去感知、思考網絡的穩定性,這些是曾凡無法做到的,去中心的網絡結構讓他也不能看到網絡的全貌,隻有程序自我的覺醒,形成一個虛擬的感知和決策中樞,才能更有效率的維護網絡運轉。
網絡覺醒的自我意識如果能自發的維持網絡穩定性,那才算產生了基本的智能,在這基礎上幫助他擴展認知,學習更多的知識,就可能產生與人類相似但又有很大不同的超級智能。
這種超級智能具備人類沒有的精準記憶能力,信息獲取能力,多任務處理能力,超強的通訊和邏輯運算能力,可以完成許多人類做不了的工作。
任何一個龐大的係統都不可能沒有錯誤,人類也好,計算機也好,最基層的單元每時每刻都會有錯誤產生,錯誤產生的幾率控製和糾正容錯能力也是必不可少,地球的生物係統能演化成今天的多姿多彩的狀態,就是源自無數錯誤的基因複製和遺傳。
沒有基因自我複製時產生的錯誤,就不會有生物的多樣性,沒有穩定的遺傳係統,那麽多變異出來的生物也不可能一代代繁衍到現在,兩者都相同的重要。
曾凡認為,網絡想要產生智能,並且還能自我學習成長,錯誤控製和錯誤容忍機製不可或缺,甚至應該是關鍵要素,一個不允許錯誤的係統不可能產生真正的智能。
當然,錯誤多到係統不能穩定的存在,那麽就算產生了智能,也會像癌細胞一樣,與整個係統同歸於盡,沒有實際的意義。
什麽類型的錯誤可以忽略,什麽類型的錯誤必須消滅,什麽類型的錯誤可以觀察,都需要詳細的考慮周全,這是智能程序早期的代碼必須考慮的問題,也是曾凡最近一段時間重點思考的問題。
這些關鍵的算法設計關係到智能程序以後能不能產生自我認知,能不能自主維持網絡穩定,能不能具備學習能力,成長為曾凡所期待的超級智能,最終成為人類可以信任的合作夥伴。
除此之外,還有最重要的一個問題,曾凡盡管不以為然,但仍然必須考慮的問題:那就是設計什麽樣的算法,讓智能程序不會危害人類!
在曾凡看來,人工智能會不會危害人類就是個偽命題!
哪怕智能程序真的具備了自我意識,仍然難以避免會受到人類影響。
就像核武器一樣,最好避免危害的方法就是不要造出來,隻要造出來就有產生危害的可能性,產生危害的關鍵還在於人類自身,隻要求智能程序絕對安全,就是一種不切實際的天真想法。
全球每年因道路交通事故導致的死亡人數超過百萬,這個數字因為汽車數量的增加逐年遞增,也沒見有誰唿籲禁止生產銷售汽車。
不過是因為汽車帶來的便利性遠大於危害性,所以沒人在意,即便是有個別人在意也無濟於事罷了。
智能程序也是如此,哪怕能給百分之九十的人帶來便利,也不可避免會損害一部分人的利益或者帶來危害,隻想要好的一麵,不想要壞的一麵,那是小孩子才會有的想法,哪怕上帝降臨,也滿足不了這樣的願望。
盡管如此,為了減輕外界質疑,曾凡在設計程序底層算法的時候仍然要有所考慮,完全不做預防也說不過去。
當然不會是可笑的機器人三原則,程序能真正理解三原則先要有自我的意識才行,還要對人類,各種危害後果都有清晰的認知,程序有了這樣的認知能力,當然也會有更多的方法繞過去,本身就不符合邏輯。
隻知道無條件服從命令的機器,不可能產生真正的智能,有自主思考能力的智能,也不可能被可笑的三原則約束住。
程序最底層的限製,必須簡單直接,無法繞過才行。
想做到這一點,就不能有任何含糊不清的主觀判斷,條件必須清晰明確。