刷臉認證、自動駕駛、智能音箱、手術機器人……近年來,我國人工智能的發展進入爆發期,被廣泛應用于金融、電商、醫療、安防、教育等領域,但隨著技術的發展應用,由此引起的數據偽造、算法瓶頸、隱私安全、倫理困境等問題也日益凸顯。
“上述問題,包括很多人工智能企業估值高、銷量少,其根源都要從人工智能技術本身去找。這些問題是目前數據驅動的第二代人工智能天然的缺陷所致。”12月9日,在清華大學人工智能研究院等主辦的2020第三代人工智能產業論壇上,中國科學院院士、清華大學人工智能研究院院長張鈸說。
張鈸表示,隨著全球多個國家都將發展新一代人工智能提升為國家戰略,產業需求呈井噴之勢,人工智能亟須發展出安全、可信、可靠與可擴展的第三代人工智能技術。
什么是第三代人工智能?作為這一概念的最早提出者,張鈸解釋,其是在第一代知識驅動和第二代數據驅動相結合的基礎上,從知識、數據、算法、算力4個要素出發所構建的全新發展體系,其目標是完全解決計算機的智能問題,全面反映人類智能。
在瑞萊智慧RealAI CEO田天看來,人工智能想要成為新時代的“水和電”,成為驅動各行業升級的底層通用能力,依賴于完備的AI基礎設施。繼承自互聯網時代的經驗,當前AI基礎設施建設的重心集中在數據中心、算力平臺上,主要解決AI“溫飽”問題,為AI提供基礎運算環境。但隨著數據積累受場景限制,現有算力逼近極限,由大數據、大算力等外部驅動力帶來的AI產業第一增長曲線開始放緩。
“由內打破才是增長。”田天說,伴隨著各個產業智能化程度不斷提高,AI基礎設施建設亟須從增強自身底層能力出發,發展出數據和算力維度外的全新能力,以內生驅動力打造AI原生基礎設施,保證相同的數據、算力條件下,更好地支撐AI賦能行業的深度應用,打開AI產業化全新市場空間,驅動產業第二增長曲線。
田天認為,想要加強AI內生驅動力需突破三大關卡。第一是算法關,保證算法決策的可靠與安全。他解釋說,智能化時代下,AI的決策邏輯和鏈路天然存在大量不確定性,缺乏可解釋性,難以被應用于高價值決策場景。另外,算法普遍存在的“對抗樣本”特征導致AI系統存在被惡意攻擊的風險。
第二是數據關,保障數據隱私和安全。在訓練AI模型時,數據的簡單明文傳輸和利用容易導致隱私泄露。與此同時,為AI應用打破數據孤島的過程中,數據用途和用量難以保障,可能被濫用和復制,同時難以界定收益,確保所有者的權益。
最后是應用關,即AI應用場景的管控。比如信貸模型中“幸存者偏差”、人臉識別的種族歧視等一系列算法公平性問題的出現,以及技術濫用引發金融欺詐,甚至是政治宣傳引導輿論等等。
“要突破三大關卡,AI原生基礎設施需要實現三大塊能力,分別是算法可靠、數據安全和應用可控,以實現對現有AI平臺升級賦能,拓展AI在各類場景上的可用性。這是現階段人工智能產業需求,也是產業目標。”田天強調。
為解決AI應用過程中的數據孤島難題,隱私保護機器學習被學術界與產業界公認為是一條可行之路。但由于隱私保護機器學習與傳統機器學習并非同屬一個技術生態,企業想要搭建隱私保護生態面臨著性能差、易用性差、黑盒協議等諸多難題。為此,大會發布了業內首款隱私保護AI編譯器。
“不同于碰到應用中的難題時,見一個解決一個,修修補補,這款AI編輯器的目標是補全AI原生基礎設施體系,提供服務于不同行業的業務產品和解決方案,使得所有場景不論大小、不論價值高低,都能夠從AI賦能中受益,讓AI更高質量服務于人類社會。”田天說。
(記者 付麗麗)