AI for Science是指人工智能(AI)賦能科學研究,目的是依托AI技術的進步提升科研能力,促進科學發展。AI對人類認知行為的技術性替代不斷加強,從肢體感官上升到大腦,進而滲透到人類認知行為的不同環節。換言之,在認知和決策方面,人類把一部分功能或是一部分“權力”讓渡給了AI系統。
AI for Science有可能創造性地融合以往多種科研范式。如今人類已置身于一個數字化、網絡化的科學世界,傳統的經驗研究、理論研究或計算模擬,都因此受到多方面沖擊。在走向智能化的過程中,除了機器學習和大語言模型的運用,還需要結合特定領域的科學理論設計和新的模型、算法的開發,憑借足夠的算力支持,AI技術能夠跨越時空,整合不同學科領域積累的豐富經驗和數據,進行高效模擬與計算。
AI for Science與以往科研過程中對人類認知行為的技術性替代的一個很大的區別在于,它是開放且不斷進化的社會技術系統。AI技術的譜系很長,并且在不斷進化,同時還需要一系列數字技術和基礎設施作為支撐。因此,如今AI for Science中“唱主角”的不單是大學或科研機構,還包括一些AI研發企業。這使得AI for Science成為一種變革更徹底、影響更深遠的技術性替代。這種技術性替代意味著更高的技術壁壘,會在科學知識生產能力上形成更大、更難以超越的代際差異。所以各國都高度重視利用AI技術重構科研系統,如美國、英國政府先后發布AI for Science的戰略研究報告和相應的行動策略。
如今在科研中被廣泛應用的生成式AI就是一個典型案例。生成式AI帶來的機遇和挑戰并存,不能簡單地否定其為科研帶來的福祉和新機遇。如果錯失了這個歷史性機遇,代際差異將會被拉大。同時也應該看到生成式AI給科學知識生產帶來的顛覆性影響,主動迎接挑戰。
生成式AI帶來倫理挑戰
2023年7月7日,《自然》新聞欄目曾做了一項實驗,兩位科學家借助ChatGPT在一個小時內撰寫出一篇相對完整的研究論文。同年10月,另一項《自然》的調查結果顯示,全球超過31%的博士后研究人員經常使用ChatGPT。早在2022年底,《斯坦福日報》進行了一項調查,結果顯示17%的學生曾使用ChatGPT完成秋季學期的作業和考試,這也是后來一段時間美國大學教授反對在大學中使用ChatGPT的原因。
截至目前,如何對待生成式AI應用于科研尚未有定論,人們的態度在不斷變化,從最開始堅決反對,到逐漸允許嘗試,再到鼓勵合規使用。如今,已經沒有高校或期刊會繼續頑固地堅持一定不能使用ChatGPT等生成式AI,但由此帶來的科研倫理問題不可忽視。
首先是生成式AI與學術不端的聯系。2023 年,《自然》對 1600 名研究人員進行了一項調查,68% 的受訪者表示,AI將使剽竊更容易,也更難被發現。生成式AI在統計分析時,對于結果一致性和應用更高級的統計方法表現出局限性,不具備高級學科必要的專業知識,并不能在前沿問題上給出準確答案。最令人擔心的是,一旦虛假的學術論文進入公開的學術數據庫、被引入學術交流的生產鏈之后,再想對其進行清理會非常困難。由此可見,這類型的學術不端不僅影響知識生產,還會影響所有在這些知識成果上進行的決策。
其次,生成式AI會對科學家的職業倫理造成影響。以往,科研人員是知識產品的直接負責人,對所生產的知識負有直接且唯一的責任,也承擔知識或技術產品帶來的風險。但AI技術和人類知識生產者形成了一種前所未有的新型人—機關系,未來可能難以嚴格區分使用者與其所依賴的AI工具。另外,當高級研究者與教育者面對學生更加熟練、更有技巧地使用生成式AI時,師生關系也可能發生顛覆。
更為重要的是,生成式AI生成知識產品的過程所蘊含的技術特征與科學家的職業倫理要求產生沖突。比如,來自數字健康領域的學者對生成式AI能否捕捉到護理學科的道德價值觀和核心原則表示擔憂,因為護理學強調對患者的同情、同理心、關懷、尊重,但生成式AI作為一種技術工具,對這種倫理關懷是無知的。
除此之外,生成式AI對于人類學術創造力的影響也值得高度關注。一些學者認為,ChatGPT等生成式AI的使用會導致學術創造力的喪失,致使學術獨創性原則受到挑戰。在這種情況下,更需要對科研應當秉持的獨創性原則進行反思。如今的生成式AI的高級認知能力還較低,如果對其產生技術依賴,可能帶來降低科研人員獨立探索、自主思考和獨立解決問題的積極性等風險。因此,堅持科研獨創性,使得科學知識生產作為社會職業所具有的獨特特征和價值得到維護,是科研人員共同的使命。
同時,AI可能會導致科研中產生新的不平等。在AI for Science的時代,新的不平等表現在不同領域、國別、年齡、職業、學歷等因素上。傳統領域中卓有成就的學者的地位可能因此受到影響甚至顛覆。獲得和使用AI技術的差異,也會帶來教育和科研領域新的分化和分層。在如今大學鼓勵使用深層次AI輔助教育和研究的背景下,這是一個亟待解決的問題。
長時段、包容性的“社會實驗”
對于如何在科研中合規地使用AI,是一項多樣性、長時段的“社會實驗”。比如,哈佛大學認為,隨著技術迭代和發展,其社會影響將會在較長時間內呈現出比較復雜的局面,需要人們在這場“實驗”中探索怎樣更好地實踐這個過程。哈佛大學將AI的使用權利交給全體師生,并且保留學校根據技術的迭代和教學實驗的發展進行政策調整的權利。
事實上,沒有任何一種倫理原則能夠解決當下人類遇到的所有問題,多種倫理立場并存和利益相關者的磋商至關重要,新的實踐智慧將在這一過程中凝練而生。要在使用AI新技術的多元、包容的“社會實驗”中發現好的實踐模式,識別可能出現的社會倫理問題。要防止極端認識的產生,如過度將AI放在崇高的位置、過度輕視AI以壓制多元探索的可能,尤其警惕用過去經驗在未來挑戰中做簡單裁決。通過這樣的“社會實驗”,人們會找到更好地與AI相互協調的方式。
對于AI帶來的學術不端,需要進行有效的識別和深層治理,充分利用技術本身來應對技術帶來的風險或許是一個不錯的思路。應該加快開發生成式AI的檢測技術,防止科研中的技術濫用。要堅持精準治理,完善對于利用生成式AI代寫論文、數據造假等科研不端行為的監管體系。
防止AI技術濫用
對于科研人員而言,在具備AI勝任力的同時,還必須具備AI時代普遍的倫理素養。可以說,同時具有技術素養和倫理素養已經成為科研智能化時代防止AI技術濫用的內在要求。如歐洲一些大學已提出詳細的AI使用原則,包括大學支持學生和教職員工建立良好的AI素養,教職人員應該具備能力支持學生在學習過程中有效且適當地使用生成式AI,調整教學評估并納入生成式AI的道德使用,支持平等的獲取,確保學術嚴謹性和誠信得到維護等。
AI的發展也為人們反思人類認知過程提供了良好的契機,使科學家認識到以往的研究工作中可以通過技術手段來提高效率和質量的部分以及真正不可替代的部分,即人類創造力真正之所系。
在這個過程中,探索科研場景下AI技術的價值對齊是不可忽視的工作。科研規范已經相當明確且得到廣泛認同。然而,要使技術真正符合這些規范,仍有許多問題需要解決,也需要更多前瞻性研究。
(本文由見習記者蒲雅杰根據清華大學教授李正風在第二屆科技倫理高峰論壇所作主旨報告整理完成)
本文鏈接:AI for Science:強化科研倫理規范 防止AI技術濫用http://www.lensthegame.com/show-11-16641-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 以科技倫理治理推進國家治理現代化
下一篇: 浙農林大:“科技紅包”送到林間基地農場