【ITIF】中國和英國的專家如何看待AI風(fēng)險和合作(英譯中)_第1頁
【ITIF】中國和英國的專家如何看待AI風(fēng)險和合作(英譯中)_第2頁
【ITIF】中國和英國的專家如何看待AI風(fēng)險和合作(英譯中)_第3頁
【ITIF】中國和英國的專家如何看待AI風(fēng)險和合作(英譯中)_第4頁
【ITIF】中國和英國的專家如何看待AI風(fēng)險和合作(英譯中)_第5頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

功能的民主化至關(guān)重要。由于任何人都可以使用它,因此它可以促會進步,例如允許任何人針對特定任務(wù)調(diào)整和調(diào)整功能強大的AI人員,開發(fā)人員和用戶之間在開源AI上的全球合作可以促進共享步,并促進制定透明度,問責(zé)制和道德準則和最佳實踐。最后,通和數(shù)據(jù)促進透明度和問責(zé)制,它有助于識別和解決人工智能中的偏AI工具的開發(fā)人員,這些工具用于創(chuàng)建圖像,音頻,3D模型和代碼。中國已經(jīng)生產(chǎn)),然而,開源AI提出了獨特的挑戰(zhàn)。首先,與專有AI不同并生成不準確的信息。此外,惡意行為者可能會將該技其次,與專有AI不同,開發(fā)人員負責(zé)技術(shù),并不總是有人負,該技術(shù)可能具有沒有人解決的已知錯誤或安全漏洞。同樣,開源AI可以在沒有任何保證或保證的情況下提供。例如,用戶可能不知道開發(fā)人數(shù)據(jù)上訓(xùn)練了開源AI模型。最后,開源產(chǎn)品的開發(fā)實踐可盡管他們都在尋求支持各自公司對人工智能的人工智能安全峰會,包括中國在內(nèi)的許多國家都參加了峰會。首腦會議以《布萊切利宣言》結(jié)束,與會國決心“維持包容性的全球?qū)υ?,使現(xiàn)有的國際論壇和其他相關(guān)倡議參與進來,并以開放的方式為更廣泛的國際討論做出貢獻。."3習(xí)近平主席后來在舊金山與美國總統(tǒng)舉行的雙邊會議上發(fā)表講話,重申了在包眾提供人工智能技術(shù)”。5望訪談。我們根據(jù)參與者在人工智能技術(shù)和政策方面的專業(yè)知識選擇不同的觀點。最終的樣本包括來自大學(xué),研究機構(gòu),我們通過半結(jié)構(gòu)化訪談收集數(shù)據(jù),這允許靈活地探索各種主關(guān)鍵領(lǐng)域。我們親自或通過在線會議進行了采訪,具體取決于參性。根據(jù)參與者的要求,訪談以兩種格式之一進行,參與者可以記錄的訪談做了手寫筆記。為了清晰和完整,我們審查并編輯了出現(xiàn)的主題和想法開發(fā)了一個初始編碼框架。這這項研究的目的是提供對美國觀點的詳細了解。K.和中國專些發(fā)現(xiàn)為人工智能安全領(lǐng)域的關(guān)鍵問題、優(yōu)先事項和潛在合作領(lǐng)解。分析中出現(xiàn)的關(guān)鍵主題是AI安全優(yōu)先級,開放模型權(quán)重的好處以及國際合作障礙。為了清楚起見,我們翻譯和編輯了以下各節(jié)。受訪專家分享了他們對AI安全的最大擔(dān)憂。為了抓住域可能仍然沒有或有限。這并不意味著專家們對這些領(lǐng)域無動國專家強調(diào)了與不安全AI相關(guān)的幾個風(fēng)險,例如AI系統(tǒng)不準確對人類與人工智能交互的安全性表示擔(dān)憂,例如機器人傷害用戶或U.K.專家們更關(guān)注其他社會風(fēng)險,例如與兒童一起使用人工智工智能取代人類工人的潛力,從而導(dǎo)致高失業(yè)率。他們強調(diào)防止社會問題的重要性。相比之下,一些中國專家專注于先工智能武器化的潛在生存威脅。他們強調(diào)了人工智能對人類34“如果人們會用AI做壞事,那么它是閉源還是開源并不重要,他們?nèi)匀粫沂茉L者指出,防止不同的攻擊是一個復(fù)雜的挑戰(zhàn),可全對策。此外,一些人對人工智能前沿發(fā)展準備不足表示擔(dān)憂,超過安全和道德準則的建立,在準備應(yīng)對新出現(xiàn)的挑戰(zhàn)方面留下些人認為缺乏標準來指導(dǎo)開源人工智能的使用、開發(fā)和管理,使“我認為英國政府采取了一種相當(dāng)合理和衡量的將部門監(jiān)管應(yīng)用于人工智能用途。他們開始了對監(jiān)管差距的搜“[MAILv.2.0]草案需要對其使用的某些術(shù)語進行更多細節(jié)和澄清。由于它是草關(guān)于提高AI透明度的話題,許多專家認為,AI開發(fā)人差距,這限制了開發(fā)人員通過披露有關(guān)其AI開發(fā)的其他信息來建。產(chǎn)品。但是,一些專家指出,如果獨立的第三方組織可以評估這“為了管理AI風(fēng)險,我們必須通過關(guān)注開發(fā)人員來解“立法者應(yīng)該建立一個評估框架來有效管理人工智能性22兩國大多數(shù)專家都認為地緣政治不確定性是阻礙國際合作的地緣政治的影響。訪談顯示,信任問題會對學(xué)者進行溝通的意為這是未來。”專家還提到文化差異是可能阻礙合作的因素。不同背景的人值觀,信仰,溝通方式和社會規(guī)范,可以影響個人如何看待和智能安全國際合作的背景下,不同訓(xùn)練的人工智能模型、國內(nèi)一些專注于開發(fā)人工智能技術(shù)的專家認為,缺乏其他參著國際合作不會帶來實際的解決方案,并阻礙他們參與未來的家的專家對人工智能安全問題沒有一個單一的、一致的看法。際合作。另一方面,與我們交談的所有中國專家都認為“鑒于美國和中國將在秋天舉行大選的政治氣候,我們發(fā)揮重要作用。”—4-英國“美國似乎更愿意首先在盟國之間建立共識。但是,我會合作。”—5-CN來自英國和中國的專家對人工智能有許多相同的關(guān)注和優(yōu)先作為這些國家未來合作與合作的基礎(chǔ),特別是在開源人工智智能的進一步對話和聯(lián)合研究為識別和監(jiān)測新出現(xiàn)的風(fēng)險、案以及評估監(jiān)督措施的潛在協(xié)調(diào)提供了獨特的機會。通過在的合作,英國和中國可以朝著開源人工智能更安全、更可靠drafts/the-open-source-ai-definition-draft-v-0-huggingface.co/spaces/open-llm-leaderbnews.cn/politics/leade/www.mfa.gov.cn/eng/zy/gb/202405/t20240531_11367503.html。foundation/blog/2024/04/17/介紹-模型-開放性-框架-促進-完整性-開放性-可再現(xiàn)性-透明性和可用性-在AI中/。/government/publications/ai-regulation-a-pro-innovation-a

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論