計世網

李彥宏提出人工智能倫理原則
來源:鳳凰網科技
2018-05-30
人的安全是最最重要的,百度不能容忍在這方面出差錯。

 



       人們享受著AI智能生活的同時也開始對此感到擔心。人們開始擔心人工智能是不是一種仿生學,它會不會最終威脅到人類的安全。在去年,李彥宏則表示出了自己對于人工智能的態度是樂觀的。

       而在今年的數博會上,李彥宏卻表示了自己對于人工智能的擔心。比如關于無人駕駛汽車的應用,無人駕駛汽車的安全性是我們最看重的問題,百度的apollo計劃的根本目的不是制造無人駕駛汽車,而是給大家提供一個平臺。

       李彥宏在會上提出四點AI倫理原則:第一個原則是安全可控是最高原則;第二個是促進人類平等地獲得技術和能力是創新愿景;第三個則是人工智能的存在價值不是超越人、代替人,而是教人學習和成長;第四個是人工智能的終極理想應該是帶給我們更多的自由和可能。

       李彥宏表示,“世界上不只有大公司需要AI的技術和能力,幾千萬的組織都需要。防止技術的不平等,導致人們在生活、工作上的不平等,這是我們需要思考的。”AI技術的使命,就是要通過學習人、從而去忠誠服務于人,讓人類生活得更美好,但AI的技術發展也需要價值觀的指引,在AI倫理價值的新“紅綠燈”指引下,才能迎來“一個更美好的AI時代”。

責任編輯:何周重