人工智能發展已進入奧本海默時刻?9月5日下午的外灘大會科技倫理見解論壇上,中國工程院院士與來自清華大學、中國科學院大學等知名學府的專家學者們齊聚一堂。值得關注的是2024股票配資,對AI前景懷有期待的同時,學者們也不可避免有著擔憂與反思。
所謂“奧本海默時刻”,是指科學家奧本海默在核武器研發和使用過程中,所面臨的道德和倫理困境。“發展機遇前所未有,安全風險也嚴峻復雜”,中國工程院院士吳世忠借此來形容當下AI治理中所面臨的難題。
9月5日下午,外灘大會科技倫理見解論壇現場(牛益彤攝)
近年來,以ChatGPT、Sora為代表的人工智能技術,給世界帶來巨大機遇,也帶來了巨大的風險挑戰,如隱私泄露、算法偏見等問題層出不窮。盡管人們已經嘗到不少AI發展的向好趨勢,但在場專家們都有著相似判斷——人工智能的治理一定不能落后,甚至應該走在前面。
“不能讓技術以自由落體的趨勢發展”,清華大學公管學院教授、人工智能國際治理研究院副院長梁正說,“如果我們能在人工智能發展上走在前列,那么在管理上也不能脫節”。
專家們普遍認為,人工智能的發展是符合技術發展規律的,“從現在的時間節點來看,還處于產業化的發展初期”,梁正說。
從技術發展的角度來看,無論是從核武器、疾病控制的發展變遷,還是飛機、汽車等交通工具的逐步規范,其他技術在發展中也經歷過類似的問題。而歷史留給我們的經驗是,必須主動選擇和謀劃發展方向。
“要從打補丁式的被動防范,到主動出擊”,中國科學院自動化研究所研究員、聯合國高級別人工智能咨詢機構專家組成員曾毅說。在他看來,系統的自適應與安全也應是人工智能的能力,兩者并非相互掣肘的關系,但這需要過程。
換句話說,要想讓人工智能從“非善非惡”的判斷題走向“知善知惡”的分析題、從“人工智能”成為“人工智慧”,顯然還需要完備地布局。
從外部來說,人工智能的治理共識顯然也引發了不少學者的思考。國家創新與發展戰略研究會副會長、中國科學院大學經管學院教授呂本富將人工智能形象地比作“孫悟空”,比起壓在山下,不如為其戴上緊箍咒,更好地發揮其價值。
但就算是緊箍咒,是緊是松也值得思量。
國際視野下,不少國家已意識到人工智能管理上的空白。據吳世忠介紹,當前全球已有31個國家共計通過123項涉及人工智能相關內容的法律,如歐盟議會今年3月正式通過《人工智能法案》、美國總統拜登于去年10月簽署第14110號行政令……各國都正在嘗試更新人工治理動態。剛剛過去的人工智能大會上不難看出,中國在這方面顯然走在前列。
也許未來某一天,人工智能的發展真的能從合乎倫理走向具有道德,“不必使人工智能無所不在,負責任地穩健發展、適度使用2024股票配資,才能使人工智能揚帆起航。”曾毅說。
作者:炒股配資 發布時間:2024-09-06 19:47:15
2025-03-31
2025-03-27
2025-03-23
2025-03-19
2025-03-15
2025-03-14
2025-03-12
2025-03-09
2025-03-05
2025-03-03
2025-02-28
2025-02-24
2025-02-22
2025-02-21
2025-02-20