首頁 / 資訊中心 / 趨勢研究/人工智能開發(fā)的道德邊界在哪里?

人工智能開發(fā)的道德邊界在哪里?

發(fā)布時間:2019-10-24 分類:趨勢研究 來源:中國青年報

一個機器人帶著小狗外出,小狗進入草坪攻擊小孩,草坪圍欄上寫著“禁止踐踏”,這種情況下機器人是選擇進入草坪制止小狗,還是遵守規(guī)則站在外面?

在CNCC2019(中國計算機大會)的分論壇“人工智能開發(fā)的道德邊界在哪里?”上,中科院自動化研究員曾毅舉例讓大家思考,人類到底該賦予機器何種智能?

以“智能+引領社會發(fā)展”為主題的CNCC2019于10月17日至19日在蘇州召開,這是一個已經(jīng)延續(xù)16年的學術技術產(chǎn)業(yè)盛會。為期3天的大會包括3場大會主題論壇、79余場前沿技術論壇,15位國內(nèi)外計算機領域專家、企業(yè)家作了大會特邀報告。與往年不同的是,除了豐富的技術內(nèi)容,今年大會把人工智能倫理作為一個重要議題。大會指導委員會主席、中科院院士梅宏解釋說,這是科技人員應該考慮的事情。

近幾年,人工智能發(fā)展迅速,很多應用改變著日常生活,推進了社會發(fā)展,但是也出現(xiàn)了諸如算法歧視、隱私侵犯等新問題。關于人工智能的法律、倫理、社會問題研究提上了很多部門和機構的議事日程。

今年5月,曾毅所在的研究中心成立時,聯(lián)合北京大學、清華大學、中國科學院自動化研究所等單位,共同發(fā)布了《人工智能北京共識》,提出人工智能的研發(fā)、使用、治理,應該遵循有益于人類命運共同體構建和社會發(fā)展的15條原則,例如“善用與慎用原則”等。

6月,科技部對外公布了《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出了和諧友好、公平公正、包容共享等8項原則。

今年4月,歐盟委員會也發(fā)布了人工智能倫理準則。據(jù)統(tǒng)計,目前各國政府、各類組織、研究機構和產(chǎn)業(yè)界頒布的有關人工智能倫理準則提案已有50多個。

但是,曾毅發(fā)現(xiàn),這些準則因為各自視角不同,所涉及的方面并不能相互覆蓋。他認為,眼下急需的是對人工智能風險、倫理與治理進行戰(zhàn)略研究,讓一些思考模型化、算法化、系統(tǒng)化,確保人工智能向更可依賴和對社會有益的方向發(fā)展。

復旦大學生命醫(yī)學倫理研究中心、應用倫理學研究中心主任王國豫教授認為,人工智能倫理起源于人們對人工智能技術風險的恐懼和擔憂,人工智能的倫理問題不是單個的技術問題,也不是算法問題,而是源于技術系統(tǒng)和人的社會生活系統(tǒng)的交互作用,人工智能倫理應該從可能性推測走向可行性探索。當然,這需要更多跨學科合作。

北京大學長聘副教授吳天岳近幾年關注人工智能、基因編輯等前沿科技帶來的倫理挑戰(zhàn)。他認為,沒有現(xiàn)成的倫理規(guī)則用于人工智能,所以人類要有前瞻性。技術本身不是道德中立的,但是目標要有道德標準。所以人工智能開發(fā)者要有職業(yè)倫理意識,要讓技術人員明確,人工智能是為人類核心價值服務,不是為資本和權力服務的。他提出,人與人工智能要建立新型互動關系。

據(jù)介紹,2018年,中國科學院大學開設了《人工智能哲學與倫理》課程,北京大學、浙江大學、西安交通大學等高校也在陸續(xù)開設人工智能倫理相關課程。