
(相關資料圖)
近日,ChatGPT的現(xiàn)象級爆火不僅引發(fā)了國內外的開發(fā)和應用熱潮,也在加快推進人工智能市場的發(fā)展。但同時,人工智能也令網絡安全的課題被進一步關注。對此,專家建議,探索分級治理和沙盒監(jiān)管模式,并成立倫理專家委員會。
上海人工智能研究院副總工程師沈灝2月8日在接受上證報記者采訪時表示,ChatGPT的火爆是一個從量變到質變的結果,為了形成質變,無論從算力硬件、核心技術、數據挖掘、人才團隊、投資環(huán)境等各方面都需要關注,國內廠商需要逐步把這些方面的欠缺逐步追趕補上。鼓勵科技創(chuàng)新企業(yè)持續(xù)下沉,將人力、技術和資本等核心資源更多地投入到行業(yè)基礎設施和平臺,對人工智能底層能力長期投入,系統(tǒng)性地提升整體能力。
沈灝認為,國內廠商需要更多地尋找到現(xiàn)實主義和理想主義的平衡點,從較強的應用場景向通用能力發(fā)展。
人工智能雖然可以在多方面提供服務,但也可能被不良目的濫用,在安全方面存在一定風險。
對此,沈灝建議,從政府監(jiān)管角度來看,一是,建立人工智能領域輕微違法行為免罰清單。即對科學家進行“松綁”,技術在可控的程度內擁有適當的試錯機會,避免法律條款“一刀切”。二是,政府主動探索分級治理和沙盒監(jiān)管的模式。根據不同風險等級采取不同的管理模式,尤其是允許中低風險領域先行先試。三是,建立行業(yè)的專業(yè)人才機構——人工智能倫理專家委員會。匯聚行業(yè)專家、大咖,讓更專業(yè)的人集思廣益、獻計獻策。
(文章來源:上海證券報)