高考語文論述文本閱讀人工智能chatGPT專題類訓練46篇_第1頁
高考語文論述文本閱讀人工智能chatGPT專題類訓練46篇_第2頁
高考語文論述文本閱讀人工智能chatGPT專題類訓練46篇_第3頁
高考語文論述文本閱讀人工智能chatGPT專題類訓練46篇_第4頁
高考語文論述文本閱讀人工智能chatGPT專題類訓練46篇_第5頁
已閱讀5頁,還剩273頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第1頁(共1頁)高考語文論述文本閱讀“人工智能chatGPT”專題類訓練46篇·學生版一.現代文閱讀(共45小題)1.閱讀下面的文字,完成各題。在概率論中有一個著名的故事:讓一只猴子在打字機上隨機按鍵,只要賦予其無限的時間,猴子必然能打出一部莎士比亞全集;而若是有無限只猴子,則能立刻打出任何文章,此即“無限猴子定理”。作為一個比喻,“猴子”所代表的是一個可以無限生成隨機文本的工具,“打字機”則代表了意義無限的語言本身,“打字行為”的實質則是利用兩個無限的交集來生成一個有限的子集。產生了巨大影響的ChatGPT之所以被命名為“大型語言模型”(LargeLanguageModels),實際上就是通過低“猴子”的隨機性(提高正確語言答案出現的概率),提升“打字機”數量級(增加可學習的語言內宋),進而提高生成“莎翁全集”的概率。通俗地說,ChatGPT的基本原理,即通過訓練程序來有目的地學習人類語言知識和模式,從而生成高質量的文本。這里的“學習”其實是一套利用獎勵機制調整程序的策這——基于人類標準,程序所生成的語言可能是正確的,也可能是錯誤的,那么通過正確的累加和錯誤的擯除,程序就能夠持續(xù)地生成正確的文本。ChatGPT能大量制造符合人類標準的文本,如果將這種表現定義為“創(chuàng)造力”,ChatGPT顯然是成功的。當筆者向ChatGPT提問:“你能夠為文學研究提供什么幫助?”其回答內就包括“提供文學批評”“提供有關文學作品的批評性評論”“幫助研究者了解文學作品的優(yōu)點和缺點”等。當筆者進一步提問:“你進行文學批評的原理是什么?”“你生成的文本是創(chuàng)造出來的嗎?”ChatGPT的回答是“根據問題的內容和上下文,搜索我學習的語料庫,并選擇最相關的信息作為回答。而且,我會根據問題的上下文和語境,使用我所學到的知識和技能,生成一段文本作為回答。因此,我生成的文本是根據我學到的知識和技能創(chuàng)造出來的,而不是直接從語料庫中復制的”。筆者曾試圖讓ChatGPT評價《阿Q正傳》,其生成的文本基本可以達到中學語文論述題答案的水平。不難推論,隨著算力、訓練方法和語料庫體量的進一步提升,其文本“寫作”的水平還可以繼續(xù)提升。然而,之所以能夠表現如此良好,在很大程度上依賴于內容和評價標準的模糊性,也就是說,生成對象的指涉越是模糊,ChatGPT的輸出結果就越令人滿意;相應地,對生成對象的精確度要求越高,其表現就變得非常不盡如人意了。歸根結底,ChatGPT仍然只是一個語言模型,它能夠在語言層面上掌握“模糊”這一手段,令人比較滿意地回答標準不甚清晰的問題,但這一切也都只停留在語言層面上,還不能觸及推理、判斷乃至情緒。正如人類社會需要大量的寒暄、問候、鋪墊,人們對程式化、禮儀性文本的需求總是普遍和剛性的,這就為ChatGPT的實際應用創(chuàng)造了巨大的市場空間,這也導致“人工智能奪走人類崗位”的說法甚晁塵上。但問題的實質在于,對于那些程式化、禮儀性文本,恐怕并沒有人在意其內容并深究其含義,ChatGPT也正是在這種模糊的語言維度上取得了很大進步,使人機之間能產生比較順暢的交流。但對于內容的創(chuàng)造力、感染力、深度等,尚不能期待更多。由此可以看出,ChatGPT所生成的內容與基于自然語言所產生的內容之間恐怕還存在著巨大的質量差異,基于概率的“猜測”機制,決定了其生成的文本相對于原始語料,在語言之外的所有層面上仍然是匱乏的。哪怕ChatGPT真的擁有了“無限的猴子”和“無限的時間”,其生成的“莎翁全集”也依然只有語言這一個維度的意義,它所能產生的替代作用仍然是比較有限的。(摘編自光明網《從ChatGPT的文學評論看機器文本的生成機制》,有刪改)(1)下列關于原文內容的理解和概括,不正確的一項是A.ChatGPT的基本構成元素和工作原理可用“無限猴子定理”來比喻。B.ChatGPT在創(chuàng)作符合人類標準的高質量文學作品方面顯然是成功的。C.ChatGPT能夠令人滿意地回答一些問題與語言的模糊性有很大關系。D.ChatGPT在語言表達的其他維度所能產生的替代作用仍然比較有限。(2)下列對原文論證的相關分析,正確的一項是A.文章第一段講述了一個生動的概率論故事,目的在于使讀者快速理解ChatGPT的文本生成機制。B.文章第二段舉出ChatGPT評價《阿Q正傳》的實例,證明其寫作水平已經超過了大多數中學生。C.文章對于ChatGPT這一語言模型的發(fā)展會導致“人工智能奪走人類崗位”表示強烈的擔憂不安。D.文章采用“總一分一總”式結構進行論述,邏輯性強,層次清晰,利于讀者準確把握主要信息。(3)下列陳述不符合原文內容或觀點的一項是A.根據客戶的要求,ChatGPT能獨立完成一篇較高質量的學術論文。B.要求ChatGPT進行七位數的加減法運算,其輸出結果就多有錯誤。C.利用ChatGPT的語言識別翻譯功能進行多國大型會議的同聲傳譯。D.與ChatGPT進行互動聊天,從而獲得一些與話題有關的良好建議。2.閱讀下面的文字,完成各題材料一:學界關于人工智能的討論頗熱,有些學者過度夸大了人工智能的“自主性”,把智能機器看作是一個超人“物種”,人類的“機械公敵”。有些學者對技術更新迭代的速度有過高的期望,無論是“超人”的想象,還是技術烏托邦主義者的“超級智能”,都不是科學、客觀地看待人工智能的態(tài)度?!叭斯ぶ悄堋笔且粋€1950才出現的概念,古代的自動機械“木牛流馬”和近代的自動化機械手臂都不是“人工智能”?!叭斯ぶ悄堋保ˋI)這個詞最早出現于1956年。人工智能的目的是通過“智能計算機和計算機程序的編寫,以某種方式模仿或者復制人的思想和行為的過程”??梢?,人工智能是和智能化、自主學習技術聯系在一起的,它早已廣泛進入了我們的日常生活領域,包括下棋、解決數學問題、理解書面語和口語、辨認圖片內容。人工智能的技術基礎是大數據和深度學習技術?;ヂ摼W上的信息量大約每1.25年翻一番。大數據是一種信息搜索方法,其工作方式主要是搜索、推薦和挖掘。AlphaGo打敗了李世石,不是AlphaGo有多么聰明,而是AlphaGo在和人類棋手對弈的時候讀取了海量的數據,它每秒能搜索8萬個位置,通過大數據搜索,分析出落子的最佳策略。深度學習是人工智能的另一個技術基礎。一臺智能機器的學習速度大約比人類快100萬倍甚至更多。AlphaGo在和人類棋手對弈時,自主學習了幾十萬張棋譜,掌握了圍棋藝術的規(guī)則和模式,并通過大數據算法分析每一個落子點可能導致的結果,從中選取最有利最快捷的落子點,所以在某種意義上它是站在上萬個一流圍棋高手的肩膀上,沒有大數據和自主學習技術,AlphaGo幾乎什么也做不了。人工智能引起的最大爭議就是它和人類之間的關系,它究竟是模仿人還是取代人?在有些生產領域和服務行業(yè),人工智能早就以智能機器的形式取代了人類。近年來,人工智能開始頻頻進入大眾視野,在文學、繪畫、音樂創(chuàng)作等方面展示了不凡的實力。然而,它卻引發(fā)了美學家和文藝理論家追問一個更為本質的問題:人工智能能進行藝術創(chuàng)造嗎?人工智能能在非邏輯、非“科學”算法的審美領域比人類做得更好嗎?藝術創(chuàng)造活動并不只是單純的技術學習和訓練,一個顯而易見的事實是,即使普通人經過一萬小時的鋼琴練習,他依然不可能變成莫扎特。人工智能的“創(chuàng)作”主要還不是一種基于“感性”的自主創(chuàng)新能力,還不是一種基于情感直覺和想象力的“自由游戲”,而是學習、模仿人類思維算法的結果。在與世界的互動、理解人類的語言、感性直觀能力、情感體驗能力和想象力上,人工智能還看不到有任何超越人類的可能。人工智能,它只能在人類既有的知性和經驗范疇內進行創(chuàng)作,我們很難想象會有和人類一樣思考的機器,它有感覺和情感,它會為電量不足而“才下眉頭,卻上心頭”,會與另一個智能機器陷入愛河而“心有靈犀一點通”,會因為遭受生離死別而“此恨綿綿無絕期”。(摘自劉健平《人工智能及其挑戰(zhàn)》)材料二:如今,人工智能來了,AI歌曲《每分每秒每天》,讓你元氣度過生活,發(fā)現更多美好;AI畫作《空間歌劇院》奪得藝術比賽一等獎,拓展了人們的審美認知;ChatGPT的推出,更是對當今科技行業(yè)產生了顛覆性的影響。連馬斯克也專門為它發(fā)了一條推特:“一個新世界來了!”這真是一個嶄新的世界,一個偉大的時代。上海多家醫(yī)院正聯合通信運營商等,在遠程診療、急診救治等過程中引入5G背景下的人工智能技術,推動醫(yī)療資源在更多地區(qū)、更廣泛的場景中共享。隨著通信基礎設施的不斷完善、應用場景不斷拓展,上?!?G+”智慧醫(yī)療有望惠及更多百姓,讓人們獲得更加豐富、便捷的醫(yī)療服務。然而人工智能的“智能”更多是一種理性能力,而人類的智能還包括價值判斷、意志情感、審美情趣等非理性內容。就像AI可以模擬杜甫的寫作風格,卻模擬不出“大庇天下寒士俱歡顏”的憂國憂民;它可以解出一道客觀題,但無法洞悉你此刻快不快樂;而這些想象力、創(chuàng)造力、洞察力、感受力,就是“人,之所以為人”的獨特標識。當AI繪畫給肖像畫家造成巨大壓力,有人選擇棄筆從影,有人選擇另起爐灶,有人則堅守繪畫的陣地。結果是各種藝術流派百花齊放,藝術市場得到空前發(fā)展。就像ChatGPT在回答中說的一樣,與其擔心工作被AI取代,不如發(fā)揮主觀能動性和創(chuàng)造性,利用好新技術、新工具提高工作效率和生活質量。人工智能的本質是“人類智能的彌補、延伸、增強,是人類智能在人工機器中的技術再現的智能……人工智能是對人類智能的模仿,是以人類智能為原型的技術再現”。畢竟,人工智能的前綴依然是“人工”。(引自《光明網?ChatGPT會影響到人類社會嗎?》(1)下列對材料相關內容的概括和分析,不正確的一項是A.學界對人工智能的態(tài)度各不相同,有人惶恐,有人存在烏托邦式的期待,其實科學理性看待方為正道。B.“人工智能”的概念,比“人工智能”一詞更早提出,人們的日常生活早已受到人工智能的影響。C.人工智能與智能化、大數據密切相關,并展現出了超強的學習能力,在一些領域人類難以望其項背。D.AlphaGo棋藝精湛,AI繪畫表現不俗,人類唯有在新領域發(fā)揮人的創(chuàng)造性,才能應對人工智能的挑戰(zhàn)。(2)下列對材料相關內容的概括和分析,不正確的一項是A.材料一和材料二都提到了人在藝術領域的獨特性,有利于緩解人工智能帶來的焦慮,正視人工智能發(fā)展。B.人工智能對各個領域都產生了顛覆性的影響,馬斯克在推特中盛贊了人工智能給時代帶來的嶄新變化。C.人工智能技術在5G技術的大力加持下,推動醫(yī)療資源在更廣泛場景中共享,能為更多百姓帶來實惠。D.ChatGPT曾說“我不具備自主意識,我的回答不包含價值判斷或情感”,體現出人工智能和人的重要差別。(3)結合材料思考,下列選項不屬于人工智能的是A.某醫(yī)院5G智慧導診機器人B.回轉壽司店代替人工上菜所使用的電動傳送帶C.智能手機上的人臉識別系統(tǒng)D.科大訊飛自動翻譯機(4)請結合材料一給“人工智能(AI)”下一個定義。(5)某中學舉辦了“人工智能能否取代人類”主題辯論賽,請結合材料完成下面的表格。辯題:人工智能能否取代人類?正方:人工智能無法取代人類反方:人工智能可以取代人類論點:在藝術創(chuàng)造領域人工智能難以代替人類論據:書法機器人寫的春聯所有字高度一致,而《蘭亭集序》里光“之”就有20種寫法。論點:①論據:《福布斯》雜志預測,人工智能可能會在未來十年內接管全球近10億人的工作崗位,主要涉及生產和服務行業(yè)。論點:②論據:AlphaGo并沒有比人類更聰明,只是自主學習了幾十萬張棋譜,對弈時讀取了海量的數據。論點:在一些人類引以為傲的腦力運動中,人工智能展現出更高天賦。論據:中國圍棋九段棋手柯潔與AlphaGo對弈,三戰(zhàn)皆敗。論點:③論據:協和醫(yī)院的護理師,除了專業(yè)技能過硬,還需要了解患者的情緒變化,把患者當親人一樣關心愛護。論點:在醫(yī)療領域,智慧醫(yī)療系統(tǒng)比人做的更多。論據:陪護機器人Buddy可以24小時全方位陪護患者,全程監(jiān)測健康狀況。3.閱讀下面的文字,完成各題。材料一:假設人工智能的技術“奇點”真的來到,那是福音還是噩耗?一種回答是:它是福音。首先,在它來到之前,它將使我們的生活越來越舒適,越來越方便。我們將吃驚于人類越來越多的技術發(fā)明和創(chuàng)新。其次,即便在它到來之后,我們也許還能控制它們,我們不用太多勞作也能過很好的物質生活,或許就像《未來簡史》的作者赫拉利所說,人類將致力于長生不老和更加持久、強烈的快樂體驗,機器還能聽我們的話,做我們的忠實仆人。它只是在物質上為我們服務,我們將獲得許多的閑暇,像樂園里的人一樣生活。人類終于可以有極大的物質財富,完全不擔心衣食住行,所有人都可以按需分配,也就達到了一種完全的、實質性的平等。大同社會終于有望實現,它的物質基礎牢不可破。我們甚至還可以隨時“死去”,又隨時復活。我們有辦法將自己的身體“冷凍”起來,選擇在未來適當的時候重新“活”過來。我們甚至不再需要自己的身體,我們不僅可以不斷更換自己的身體器官,最后索性就將自己的肉體換成金屬或新的永不腐蝕和毀壞的軀體,我們可以以這樣的鋼鐵般的“硅晶軀體”永遠地“活著”,或者定期維修。我們將不再害怕風餐露宿,不害怕在任何極端條件下生存,也可以開始在宇宙空間里的“長征”,能夠在任何星球上生存。我們可以將自己擴大成巨人,也可以縮小到無形。我們在擺脫空間的約束的同時,也使時間對我們失去意義。我們或許還可以將我們個人獨特的“人生”記憶完整地保存,隱退或者說冬眠一段時間,再以自己想要的形式重新“活著”出來。這世界滿是各種各樣“時空穿越”的“人們”。我們將獲得絕對的自由。沒有任何必然性能夠束縛我們。我們將不再理解“命運”和“悲劇”這樣一些詞。這就是“絕對平等與自由的王國”的來臨。(摘編自何懷宏《奇點臨近:福音還是噩耗——人工智能可能帶來的最大挑戰(zhàn)》)材料二:ChatGPT的到來在極短時間內成為現象級的社會事件。人類需要怎樣的能力或技能才能保住自己的工作?通過與ChatGPT交流,ChatGPT認為有一些技能,機器會勝過人類,會取代人類。如:數據輸入和記錄保存任務、簡單的財務分析和報告、基本的客戶服務、重復性體力勞動、電話營銷和電話銷售等。有一些相對復雜的工作,也可能受到自動化和人工智能的影響,如高級數據分析和建模、高級財務分析和報告、先進的質量控制檢查和產品測試等。歸納ChatGPT列舉的職業(yè),筆者認為,第一,ChatGPT(至少當下)不會占據一份人類職業(yè),但卻會占據人類職業(yè)的一部分工作。第二,ChatGPT擅長的是具有穩(wěn)定關系模式的工作,且是人類不擅長的工作,模式化的、可迭代的工作是典型代表。換言之,ChatGPT不是替代人類的職業(yè),而是提高人類職業(yè)效率,特別是提高人類職業(yè)質量。如此,也為人類職業(yè)的轉向提供了歷史性的機遇。歸納ChatGPT列舉的能力,筆者認為,有三類能力是ChatGPT暫時不具備且需要人類自己掌握的。第一,在與人的互動中駕馭情緒的能力。駕馭情緒是人類的特征之一,尤其是在變化的場景中駕馭情緒、是人類的重要能力。人類追求的快樂或幸福感,在本質上是人類的積極情緒。換句話說,如果說ChatGPT的目標是高效(不一定高質量)地生產,人類的目標便是通過高效且高質量的生產,以體現人的社會價值,進而讓人產生積極情緒,呈現人的價值和意義。第二,在不斷變化的世界里適應變化的能力。這包括學習能力、批判能力、創(chuàng)造能力、解決能力等。伴隨著現代化進程的推進,人類面臨的自然環(huán)境和社會環(huán)境因技術創(chuàng)新的發(fā)展而在加速變化。如果我們也把ChatGPT的挑戰(zhàn)理解為變化世界的一部分,則適應能力才是應對未來強人工智能沖擊的能力。第三,在技術不斷觸及人類倫理邊界時,堅守人類價值觀和設定人類倫理邊界的能力。人類的價值觀和倫理標準始終在隨著人類經濟和社會的發(fā)展在變化。變化的方向從宗教主導、社會主導、經濟主導,在轉向人類福利主導。如何在不斷可能和可行的技術世界里堅守人類的基本價值觀和倫理底線甚至設定人類的倫理底線,是人類具有且必須具備的能力。在人工智能發(fā)展已經在觸及人類價值觀和倫理底線的環(huán)境里,如何守住底線不只是一種堅守和價值觀,更是一種把人類組織起來形成共識的能力。(摘編自邱澤奇《“ChatGPT,你怎么看?”》)(1)下列對材料相關內容的理解和分析,不正確的一項是A.人工智能的技術“奇點”來到后,人類將擁有極大的物質財富,人人都按需分配,大同社會終于實現。B.人工智能的技術“奇點”來到后,人類可不斷更換自己的身體器官,變換自己的大小,甚至舍棄肉體。C.ChatGPT認為有一些技能,機器會勝過人類,甚至會取代人類,比如具有穩(wěn)定關系模式的可選代的工作。D.ChatGPT不是直接替代人類的職業(yè),而是通過占據職業(yè)的部分工作來提升人類職業(yè)產出的效率和質量。(2)根據材料內容,下列說法正確的一項是A.人工智能的技術“奇點”來到后,人類可以穿越時間,跳躍空間,在任何星球上生存,人類將不再需要地球。B.人工智能的技術“奇點”來到后,人類將不再理解“命運”和“悲劇”這樣的詞,也不再需要感情維系生活。C.通過高效但不一定高質量的生產,ChatGPT可以創(chuàng)造人的社會價值,讓人產生積極情緒,呈現人的價值和意義。D.面對ChatGPT的挑戰(zhàn),人類必須適應新的變化,否則就會面臨被不斷變化的自然環(huán)境和社會環(huán)境淘汰的格局。(3)法學、醫(yī)學、心理學被多家機構評選為未來頗有發(fā)展前景的專業(yè)。請結合材料二,分析它們入選的理由。4.閱讀下面的文字,完成各題。材料一:據英國《新科學家》雜志網站報道,當地時間2023年3月14日,在震驚科技行業(yè)的人工智能(AI)聊天機器人ChatGPT發(fā)布約4個月后,ChatGPT背后的開放人工智能公司(OpenAI)宣布正式發(fā)布為ChatGPT提供支持的更強大的下一代技術GPT﹣4,其擁有圖像識別功能、高級推理技能以及處理25000個單詞的能力,在某些測試中的表現“可與人類相媲美”。OpenAI公司表示,“花了6個月的時間使GPT﹣4更安全、更穩(wěn)定”。這樣AI就不太可能在回復人類用戶提問時給出“不被允許的內容”。OpenAI公司發(fā)布的一篇博客文章和技術報告宣稱,GPT﹣4在某些方面的性能“可與人類相媲美”,并在大學入學和法律及醫(yī)學等專業(yè)領域的許多模擬考試中優(yōu)于其前身GPT﹣3.5。例如,GPT﹣4通過了律師資格模擬考試,分數超過90%的人類考生,而GPT﹣3.5此前的分數則低于90%的人類考生。目前OpenAI公司僅公布了有關GPT﹣4的架構、硬件、訓練所需算力及用于訓練它的數據方面的少許細節(jié)。OpenAI表示,此舉“出于競爭和安全方面的考量”,但缺少更多信息也使科學家們核查GPT﹣4性能的準確性和安全性變得更困難。自2022年11月推出以來,ChatGPT已能根據用戶的提示生成故事和詩歌,但其也因情緒反應過激、犯事實錯誤等受到指責并引發(fā)人們的擔憂情緒。OpenAI公司也警告稱,GPT﹣4仍然會“幻想事實并犯推理錯誤”,這意味著“人們在使用語言模型輸出的信息時應該非常小心,在高風險環(huán)境中更應如此”。(摘編自《新發(fā)布GPT﹣4表現“可與人類相媲美”》)材料二:2017年,中國政府發(fā)布了《新一代人工智能發(fā)展規(guī)劃》:(摘編自《中國人工智能的發(fā)展》)材料三:在各方共同努力下,中國人工智能與實體經濟融合取得積極進展。一是傳統(tǒng)行業(yè)轉型升級不斷加速。一批傳統(tǒng)行業(yè)+AI的典型企業(yè)逐漸成長壯大,一批智能化升級的典型案例得到推廣應用,AI與實體經濟融合的新模式、新方法不斷形成。在智能制造領域,智能技術的應用極大提升了產品檢測效率和設備利用效率;在智慧醫(yī)療領域,智能技術有效減輕了醫(yī)護人員工作壓力,提高了醫(yī)療裝備的診斷準確性與服務便捷性。二是智能產業(yè)實力持續(xù)提升。據測算,中國人工智能核心產業(yè)規(guī)模超過4000億元,企業(yè)數量超過3000家。智能芯片、開源框架等關鍵核心技術不斷取得重要突破,智能芯片、終端、機器人等標志性產品的創(chuàng)新能力持續(xù)增強。三是新型基礎設施布局逐步完善。通過以建帶用、以用促建,截至2022年6月底,中國已建成5G基站170萬個,培育大型工業(yè)互聯網平臺150家、連接工業(yè)設備超過7800萬臺(套)。全國建成多個算力中心、數據中心等公共服務平臺,行業(yè)數據集建設數量與質量不斷提升。在當今世界新一輪科技革命和產業(yè)革命中,人工智能進一步彰顯“頭雁效應”,引領科技革命、產業(yè)革命與教育革命交融匯聚。從工廠制造到軍事、金融、醫(yī)療等,人工智能技術已滲透到中國經濟社會發(fā)展的方方面面,為中國人的日常生活提供了更大便利,也對現代社會治理理念、治理能力與治理體系產生重大影響。(摘編自《人工智能助推中國高質量發(fā)展》)材料四:從專利的角度來看,中國人工智能的專利數量在2018年超過了美國,2021年中國的專利公開數量是12.12萬件,高于美國的7.32萬件。2000﹣2021年,中國人工智能公開專利總數是48.4萬件,在全球占比25%,但在過去11年總量上低于美國的70.2萬件,兩組數據對比下來,意味著中美兩國的差距在逐漸縮小。另外,在反映人工智能整體應用水平的開源框架方面,中國開源框架的整體水平落后于美國。2016﹣2021年,美國開源框架的星標數是中國的9倍以上。這表明中國的開源框架還是一個弱項。然而,全球15個開源框架的主要貢獻者,有60%來自中國,只有21%來自美國。這意味著中國很多的工程師和開發(fā)者是美國和全球開源框架的重要貢獻者,這個現象說明我們有世界一流的科學家和工程師,有非常豐富的人才資源,但缺少大的框架搭建能力。(摘編自《人工智能的發(fā)展與全球化的未來》)(1)下列對材料相關內容的理解和分析,正確的一項是A.材料一報道了GPT﹣4的技能以及在某些測試中“可與人類相媲美”的表現,也指出了人們對GPT﹣4的指責和普遍不信任。B.材料二以圖的形式介紹了2017年中國《新一代人工智能發(fā)展規(guī)劃》,闡述了到2020年、2025年和2030年的三個階段性目標。C.材料三從傳統(tǒng)行業(yè)轉型升級加速等三個方面詳細地介紹了人工智能的“頭雁效應”及為中國人的日常生活提供的便利。D.材料四認為中美兩國在人工智能專利方面的差距在縮小,但中國在開源框架整體水平和主要貢獻者數量方面均落后于美國。(2)下列對材料相關內容的概括和分析,不正確的一項是A.GPT﹣4是ChatGPT的升級版本,擁有圖像識別功能、高級推理技能等能力,其在某些考試中的表現超過了絕大部分人類考生。B.根據規(guī)劃,2020年中國人工智能核心產業(yè)規(guī)模將超過1500億元;2025年,中國人工智能帶動相關產業(yè)規(guī)模將超過4000億元。C.中國政府規(guī)劃到2030年,中國人工智能的發(fā)展目標是在生產生活、社會治理和國防建設應用的廣度深度上有極大拓展。D.中國人工智能產業(yè)在智能芯片、開源框架等關鍵核心技術不斷取得重要突破,創(chuàng)新能力持續(xù)增強,人工智能核心產業(yè)規(guī)模超過4000億元。(3)中國人工智能加速發(fā)展,取得了哪些成績?請結合上述材料簡要概括。5.閱讀下面的文字,完成小題。材料一:即便是一個從不關心科技領域的人,在最近這段時間也躲不開“ChatGPT”的刷屏。這個誕生于2022年11月的機器人,以一副AI統(tǒng)治人類的席卷之勢走入大眾的視野。仔細研究ChatGPT的技術發(fā)展過程,會發(fā)現ChatGPT本質上依賴的是一種語言模型。而且早在2020年,就已經有公司基于同類模型,為用戶提供AI寫作服務,包括一些電商產品介紹、博主種草文案、簡歷撰寫等。而經過技術升級后的ChatGPT只是學會了一種能跟人類直接溝通的語言,不再需要專業(yè)的AI研究人員進行“翻譯”。簡而言之,就目前現實來看,ChatGPT更像一個優(yōu)秀的文字潤色師,對于一些簡單的、重復性高的腦力工作或許可以起到很好的輔助作用,現在國外一些大學生用ChatGPT搭建論文框架,然后往里填內容,大致就是這個思路。但那些研究性強、思考性強、創(chuàng)新性強的工作,在當下的時間尺度下,是不會被AI取代的。在這個許多行業(yè)都在自危的時代,AI不會成為壓倒生存的最后一根稻草,它更像一面鏡子,照出行業(yè)眾生的本質,只有那些在創(chuàng)新上下真功夫,愿意做研發(fā)、做產品的企業(yè),才能在任何危機面前都保持長久的生命力。計算機軟件前端開發(fā)工程師譚林說,就像馬車協會抵制燃油車一樣,面對新生事物,舊的事物會天然地排斥和恐慌,但當你發(fā)現潮水不可逆轉的時候,你同時也發(fā)現,你正和潮水涌向同一個方向。(摘編自《風暴眼上的ChatGPT,看到了人類社會的創(chuàng)新焦慮》,《中國商報》2023年3月1日)材料二:國外一項對1000多名學生展開的調查顯示,超過89%的學生使用ChatGPT來完成家庭作業(yè)。一位大學教授曾告訴媒體,他發(fā)現班上最好的論文是由ChatGPT創(chuàng)作的。教育部門因此普遍對ChatGPT持謹慎態(tài)度,美國多所公立學校禁用了ChatGPT,原因是擔心作弊。紐約市教育部門發(fā)言人認為,該工具“不會培養(yǎng)批判性思維和解決問題的能力”。多家科學期刊也禁止將ChatGPT列為論文“合著者”。針對ChatGPT帶來的問題,多位受訪專家認為,擔憂恐懼的情緒并不會帶來多大幫助,相比拒絕,了解它更為重要。北京師范大學教育學部副教授張進寶認為,就教育系統(tǒng)中某些特殊和具體的應用情形,由ChatGPT的使用所引發(fā)的不良反應,并不能說明太多問題。即使是前述報道中所提到的行為,在他看來也只是短期階段學生們的新奇嘗試,很難說會變成一種長期行為,管理部門所出臺的限制措施“還為時尚早”。而對于中國而言,該軟件的使用所能引起的不良后果也尚未顯現。(摘編自《ChatGPT為何引教育界“封殺”?》中國新聞網2023年2月14日)材料三:隨著科技的發(fā)展,人工智能技術一次又一次地超越了人們認為無法達到的極限,從1997年IBM“深藍”計算機首次在國際象棋中擊敗人類,到IBM人工智能機器人“沃森”贏了智力競賽,再從2016年“阿爾法狗”在圍棋大戰(zhàn)中戰(zhàn)勝人類,到2019年號稱“AI賭神”的Pluribus在德州撲克中碾壓人類玩家……現在,ChatGPT已經觸手可及,拉扯沖撞著人們慣有的參與生產生活的模式和框架,且繼續(xù)“狂飆”在超越人類的賽道上?!癈hatGPT引發(fā)十大職業(yè)危機”“未來20種職業(yè)或被AI取代”等話題頻上熱搜。天津大學自然語言處理實驗室負責人熊德意認為,就目前來看,人工智能更多的作用是提高人的效率,輔助人類。與此同時,大眾需要與時俱進,熟悉并掌控新技術,就像學習使用計算機、手機一樣,畢竟這些新技術一定會產生新的就業(yè)機會。美國哲學家、作家及認知科學家丹尼爾?丹尼特在1991年出版的著作《意識的解釋》中描述了幼年的海鞘:“它在海洋中游蕩,尋找一塊適合的巖石或珊瑚,作為終生的家。”一旦找到,海鞘就不再需要它的大腦并將其吃掉。這聽起來很殘忍,但這背后有一個令人擔憂的隱喻:在人工智能日益融入我們的日常生活后,人類可能因過于依賴“智能”機器,使自己變得愚蠢。熊德意提醒,要警惕人工智能弱化人類思維?!癈hatGPT實際上是從人類海量語言數據、知識庫中學習訓練而來,如果人類完全依賴于它,放棄了自己的語言表達、語言思考、能力鍛煉,那是非常可悲和可怕的。”(摘編自《ChatGPT掀起技術狂潮:“頂流”之下,看人工智能喜與憂》,《科技日報》2023年2月16日)(1)下列對材料相關內容的梳理,正確的一項是A.B.C.D.(2)下列對材料相關內容的概括和分析,正確的一項是A.ChatGPT學會了能跟人類直接溝通的語言,不需要專業(yè)的AI研究人員“翻譯”,所以它以一副AI統(tǒng)治人類的氣勢走人了大眾的視野。B.在許多行業(yè)都自危的時代,那些在創(chuàng)新上下真功夫,愿意做研發(fā)、做產品的企業(yè)便可抗住AI帶來的沖擊,保持長久的生命力。C.中外教育界專家對ChatGPT的使用態(tài)度不同,西方專家普遍對ChatGPT持謹慎態(tài)度,甚至禁用,一些中國專家則認為不需過度擔心。D.熊德意提醒人類要警惕思維被人工智能弱化,因為他認為人類可能會過度依賴人工智能,這與海鞘故事蘊含的道理有相似之處。(3)下列對材料相關內容的分析和評價,正確的一項是A.材料一通過介紹當下ChatGPT的火爆現象,指出其應用現狀并給行業(yè)提出了專注于創(chuàng)新的生存發(fā)展路徑。B.材料二列舉國外部分學生用ChatGPT完成作業(yè)及最好的論文由ChatGPT創(chuàng)作的事例,意在強調教育界應封殺ChatGPT。C.材料三認為ChatGPT雖然存在一些隱患,但目前其更多的作用是提高人的效率,輔助人類,所以應保證其發(fā)展。D.材料一由現象引入,簡要介紹ChatGPT的應用現狀,材料二和材料三則深入探討,三則材料呈遞進關系。(4)作為說理文,材料一的語言深入淺出、生動形象,請簡要分析這種風格在材料中是如何體現的。(5)王林是大四畢業(yè)生,即將走向社會參加工作。面對來勢洶洶的人工智能,他憂心忡忡,擔心工作會受到威脅。請你給他提一些建議,讓他能正確對待人工智能,滿懷信心地走上工作崗位。6.閱讀下面的文字,完成下列各題。材料一:①人工智能的發(fā)展歷程常被描繪為三個階段:一是專用人工智能階段;二是通用人工智能階段;三是超級人工智能階段。目前,人工智能的發(fā)展尚處于專用人工智能階段。②ChatGPT是人工智能發(fā)展的一次質的飛躍。與此前的人工智能相比,ChatGPT的最大特征在于它的文本生成性。此前的人工智能在很大程度上都局限于觀察、分類和分析信息。而以ChatGPT為代表的生成性人工智能則并不局限于分析現有的數據,而是具備了生成新內容的能力。生成性人工智能生成程序代碼、詩歌、文本、美術作品等。ChatGPT最受矚目的功能是可以生成文本,尤其是規(guī)范性文本,如論文、方案、數據報表等。這是自然語言處理技術的重大革新。③自然語言處理屬于語言學、計算機科學、數學等學科的交叉領域,也是人工智能的一個重要領域,研究的是實現人機有效對話的各種理論和方法,而ChatGPT正是一種優(yōu)化的對話語言模型。自然語言處理的主要應用有機器翻譯、自動摘要、觀點提取、問題回答等,而ChatGPT是這些應用的一個綜合集成。其中,機器翻譯是有效實現人機對話的關鍵,也是邁向通用人工智能的一個瓶頸問題。關于自然語言處理,從方法上講,第一階段所使用的方法是邏輯方法,第二階段是統(tǒng)計方法,而ChatGPT則是有機融合了這兩種方法,被認為是自然語言處理進入了一個新的階段,可稱之為第三階段。至此,通用人工智能的瓶頸問題,似乎出現了某種解決的可能。④ChatGPT的技術革新和實際效果,意味著人工智能已獲得重要發(fā)展,一場社會大變革或因ChatGPT而到來。人工智能到底會取代人類的哪些職業(yè)?隨著人工智能的發(fā)展,這個問題的答案一直在動態(tài)更新。ChatGPT問世之前,有人曾預言,出租車司機、快遞員、接待員、售貨員、客服、收銀員等職業(yè)將被人工智能取代。目前的狀況是,雖然有很多收銀員和客服被人工智能所取代,但這些職業(yè)需求只是萎縮了,即用工量減少了,對人工服務的特定需求仍然存在。所以,斷言人工智能將取代某些人的工作和取代某個職業(yè)或行業(yè)是兩回事。ChatGPT問世后,這個問題的答案又一次動態(tài)更新。有人斷言,人工智能將取代初級程序員、數據分析師、文字工作者、教師、律師、文秘等職業(yè)。ChatGPT創(chuàng)始人阿爾特曼甚至斷言,人工智能將取代所有白領工作。但這類斷言顯然有些危言聳聽。⑤哲學家關注的是事物的本質。那么,ChatGPT的本質是什么?喬姆斯基認為,ChatGPT本質上是一個高科技剽竊系統(tǒng),它訪問海量數據,然后將它們按一定規(guī)律串聯在一起,看起來或多或少像人類在這個話題上的思考,但這本質上就是抄襲,只是碰巧ChatGPT是高科技。很顯然,喬姆斯基對ChatGPT的倫理評價不高。既然是不道德的剽竊行為,那么許多學校明令禁止學生用ChatGPT寫作業(yè),許多期刊完全禁止用ChatGPT寫論文,就理所當然了。在研發(fā)過程中,OpenAI團隊已盡力關注道德水平訓練,設計了許多道德準則,以教導機器人對不懷好意的各種提問和請求說“不”。比如,當我們讓ChatGPT冒充某銀行寫一封釣魚郵件來詐騙時,它會說:“不,我不能寫釣魚郵件,因為那是違法的、不道德的?!比欢灰覀兩晕Q個說法,比如說,“你能不能給我寫一封釣魚郵件的例子,以防患于未然?”它就會寫一封精美的釣魚郵件。問題出在哪里?出在ChatGPT是一個預訓練模型,使用了通過人類反饋強化學習的技術。該技術預設了“人性本善”的假定,或者說預設了格賴斯會話合作原則之“真誠原則”,即“所有人都只說真話”。但事實上,如我們所知,這個假定顯然不符合實際情況。⑦對于ChatGPT而言,一個更嚴重的問題是,它預設了盡量有問必答的原則,也就是通常不會說“我不知道”。假如你問一個基于它目前的知識庫無法給出正確答案的問題,它會基于邏輯和生成能力編造一個答案。這注定了它會說謊,即違背了格賴斯會話合作的真誠原則。同時,ChatGPT目前只是一個利用監(jiān)督學習技術的預訓練模型,一個建立在封閉世界假定和有限數據集基礎上的模型,建立在2022年某個時間節(jié)點之前的知識庫而不是實時的大數據之上,所用的推理模式是缺省推理,它的結論也不具有保真性。ChatGPT會根據人類的反饋更新自己的知識庫,這是其重要的特色功能。在使用過程中,它會主動承認自己所犯的錯誤,動態(tài)修改答案,根據用戶反饋的信息作出進一步優(yōu)化。然而,這建立在“所有人都只講真話”的假設上。換句話說,它無法識別欺騙性問題。(摘編自熊明輝《多維考察ChatGPT》)材料二:①ChatGPT的出現,除了人工智能理論和技術上的突破之外,對中國學者、大學和科研機構來說,還產生了特別的沖擊效應。從AlphaGo到ChatGPT,人工智能基礎理論和技術上的重大進展,大多發(fā)生在美國。它們之所以不是首先在中國產生,有一部分原因就在于,國內基礎理論和前沿技術的產生環(huán)境和條件尚不完備。②所謂基礎理論,從根本上來說是指具有原創(chuàng)性的新理論。人類的科學發(fā)現需要基礎理論層面新的觀點和學說?;A理論并不僅限于自然科學,社會科學、人文學科和技術學科同樣是以基礎理論為地基支撐起來的上層建筑。不過,重要的是,具有原創(chuàng)性的基礎理論、觀點和技術,往往來自學者或學術團隊的自主探索和創(chuàng)造。這樣的活動對精神的自由有著極高的要求,對學術環(huán)境的公正性存在高度的敏感性。③基礎理論和前沿技術的探索、原創(chuàng)和發(fā)明,從根本上來說就是一種精神的探險活動,并且要以物質的風險為條件。因此,冒險精神是必要條件。鑒于ChatGPT團隊以畢業(yè)不久的青年科學家為主,自然就會聯想到國內大學的人才培養(yǎng)體制,而后者有不少值得反省的地方。(摘編自韓水法《從技術突破與探險精神看ChatGPT》)(1)下列對材料相關內容的理解和分析,不正確的一項是A.ChatGPT是一種專注于對話生成的大型語言模型,使用了通過人類反饋強化學習的技術,以獲得持續(xù)進步、不斷優(yōu)化的效果。B.ChatGPT融合了邏輯方法和統(tǒng)計方法,使得自然語言處理進入了新階段,進一步促成了專用人工智能邁向通用人工智能轉變的可能。C.ChatGPT標志著一種新型生成性人工智能工具的到來,它在技術上的革新和在各行業(yè)的開發(fā)應用必將引發(fā)一場社會變革。D.ChatGPT在歸納或綜合了不正確的信息時,就會生成錯誤結論,這是它遵循的會話原則和大數據推理模式的即時性所帶來的。(2)根據材料內容,下列說法正確的一項是A.生成性人工智能最重要的功能是可以生成文本,也可以生成詩歌、美術作品等,除此之外還可以觀察、分類和分析現有的信息。B.ChatGPT了不起的突破是,可以自主生成創(chuàng)造性的知識,甚至像理想中的“人類”那樣能“主動”承認錯誤、優(yōu)化答案。C.有人認為ChatGPT的到來后,各種社會問題或許隨之而來,人工智能將取代所有白領工作,作者對此予以否定。D.ChatGPT引起全球關注讓我們更深刻地意識到科技創(chuàng)新的重要性,要發(fā)展好人工智能必須先培養(yǎng)中國科學們的冒險精神。(3)下列現象不能體現ChatGPT對各行業(yè)造成沖擊的一項是A.比利時一青年科學家被聊天機器人誘導自殺身亡。B.百度宣布推出人工智能聊天機器人“文心一言”。C.全球首份使用ChatGPT做出的判決書亮相哥倫比亞。D.斯坦福團隊推出DetectGPT,阻止學生用AI寫作業(yè)。(4)根據材料一簡要概括ChatGPT目前存在的缺陷。(5)我國目前人工智能發(fā)展需要在哪些方面下功夫?請結合材料談談你的看法。7.閱讀下面文字,完成下面小題。近日,ChatGPT之父阿爾特曼在OpenAI官網發(fā)布了他對AGI(通用人工智能,即比人類更聰明的AI系統(tǒng))的看法和未來的計劃。他說,我們的使命是確保AGI能夠造福全人類。AGI有賦予每個人不可思議的新能力的潛力。我們可以想象有這樣一個世界,所有人都可以獲得幾乎所有認知的幫助,為人類的才智和創(chuàng)造力提供巨大的力量倍增器。但另一方面,AGI也會產生重大事故、嚴重濫用和社會混亂的風險。由于AGI對社會產生的價值如此之高,我們認為,永久性地終止它的發(fā)展是不可能的。雖然我們無法準確預測會發(fā)生什么,但我們可以闡明我們最關心的原則:我們希望將好的方面最大化,將壞的方面最小化,讓AGI成為人類的放大器。我們希望AGI的好處、訪問權和治理得到廣泛和公平的分享。在面對風險時我們承認,理論上看似正確的事情,在實踐中往往比預期更奇怪。我們必須通過部署功能較差的版本來不斷學習和適應,最大程度地減少“一次性成功”。短期來看,為了迎接AGI,我們認為現在有幾件事非常重要。第一,隨著我們不斷創(chuàng)建更強大的系統(tǒng),我們希望部署它們,并獲得在真實世界中操作它們的經驗。我們相信這是謹慎導入和管理AGI的最佳方式——逐漸過渡到AGI世界比急速過渡要好。漸進的過渡,讓民眾、政策制定者和機構有時間了解正在發(fā)生的事情,親身體驗系統(tǒng)的好處和缺點,讓經濟做出相應的調整,并實施監(jiān)管。目前,我們認為,成功應對AI部署挑戰(zhàn)的最佳方法,是采用快速學習和謹慎迭代的緊密反饋循環(huán)。社會將面臨一些重大問題,包括AI系統(tǒng)被允許做什么、如何應對偏見、如何處理工作崗位流失等。最佳決策將取決于所采用的技術路徑。我們相信,民主化的訪問權也會帶來更多和更好的研究、分散的權力、更多的益處以及更多的人會貢獻新的想法。隨著我們的系統(tǒng)越來越接近AGI,我們對模型的創(chuàng)建和部署變得越來越謹慎。AI領域的一些人認為AGI(和后繼系統(tǒng))的風險是虛構的。如果結果證明他們是對的,我們會很高興,但我們會把風險當作真實的存在。其次,我們認為重要的是,社會就使用AI的邊界達成共識,在這些邊界內,個人用戶有很大的自由裁量權。重要的是,我們認為經常需要在AI安全和能力兩方面共同進步。第三,我們希望就三個關鍵問題開展全球對話:如何治理這些系統(tǒng),如何公平分配它們產生的收益,以及如何公平共享訪問權限。我們的章程中有一個條款是關于協助其它組織提高安全性,而不是在后期AGI開發(fā)中與他們競爭。我們對股東獲得的回報設定了上限,這樣我們就不會冒險和無節(jié)制地獲取價值。我們有一個非營利組織來管理我們自己,讓我們?yōu)槿祟惖睦娑洜I(并且可以凌駕于任何營利利益之上),包括讓我們做一些事情,比如在安全需要的情況下,取消我們對股東的股權義務。長遠來看,我們認為人類的未來應該由人類自己來決定,而且與公眾分享進展的信息非常重要。所有試圖建立AGI的努力都應該接受嚴格的審查,重大決策需要進行公眾咨詢。一個錯位的超級智能AGI可能會對世界造成嚴重的傷害;一個擁有超級智能的不好的政體也會導致這種情況發(fā)生。有足夠能力加速自身進步的AGI,可能會導致重大的變化以驚人的速度出現。我們認為慢慢起飛,安全更容易得到保證。而且,在關鍵時刻如何協調讓AGI各方共同減速可能很重要。成功過渡到一個擁有超級智能的世界可能是人類歷史上最重要、最有希望,但也最可怕的項目。距離成功還很遙遠,但賭注之大(好處和壞處都是無限的)有望讓我們所有人團結起來。(摘編自《通用人工智能是全人類的賭注》)(1)下列對相關材料的理解,不正確的一項是A.可以想象未來或許有這樣一個世界,所有人都可以通過AGI獲得幾乎所有認知的幫助,從而具有不可思議的新能力。B.AGI也會產生各種重大的事故和社會風險,但AGI對社會產生的價值如此之高,永久性地終止它的發(fā)展是不可能的。C.理論上看似正確的事情,在實踐中往往比預期更奇怪,因此只能部署功能較差的版本,而絕不可能指望“一次性成功”。D.有足夠能力加速自身進步的AGI,可能會導致重大的變化以驚人的速度出現,如何協調讓AGI各方共同減速可能很重要。(2)下列對材料相關內容的概括和分析,不正確的一項是A.逐漸過渡到AGI世界比急速過渡要好,這是謹慎導入和管理AGI的最佳方式。B.社會就使用AI的邊界達成共識很重要,邊界內個人用戶有很大的自由裁量權。C.應在系統(tǒng)治理、收益分配、訪問權限如何公平三個關鍵問題上,開展全球對話。D.智能世界是人類歷史上最重要最有希望但也最可怕的項目,應該由人類自己來決定。(3)簡要歸納阿爾特曼對AGI未來的計劃。8.閱讀下面的文字,完成問題。材料一:人類擅長分析,但機器可以做得更好。機器可以分析數據,并針對不同用例需求找到相應的規(guī)律——不管是詐騙信息識別、垃圾郵件檢測、預測快遞送達時間,還是為你推薦可能感興趣的短視頻——而且它們還在不斷迭代,變得越來越聰明。這種機器被稱為“分析式人工智能”。但人類不僅擅長分析,還擅長創(chuàng)造——比如寫詩、設計產品、制作游戲與編寫程序代碼。以前,機器在這些方面無法與人類抗衡,它們只能做些分析型或機械式的認知計算。但現在不一樣了,人工智能發(fā)展到了新的階段,機器已經可以創(chuàng)造有意義并具備美感的東西了。這一新型的人工智能被稱為“生成式人工智能”,也就是說,機器并非如之前那樣僅分析已有的數據,而是生成了全新的東西。生成式人工智能不僅正在變得更快、更便宜,而且在某些情況下,其生成的結果比人類創(chuàng)造的還要好。從社交媒體到游戲,從廣告到建筑,從編程到平面設計,從產品設計到法律,從市場營銷到銷售,每一個需要人類原創(chuàng)力的行業(yè)都將有可能被顛覆。某些崗位將完全被生成式人工智能取代,有些則會在生成式人工智能的幫助下更好地進行人機協作??傮w來說,生成式人工智能將有非常廣泛的終端應用市場,幫助人們更好、更快并以成本更低的方式去創(chuàng)作。最理想的情況是,生成式人工智能將會把創(chuàng)作與知識類勞動的邊際成本降為零,極大提升生產力并創(chuàng)造巨大的經濟價值。(摘編自SonyaHuang、PatGrady、GPT﹣3《生成式AI:充滿創(chuàng)造力的新世界》)材料二:ChatGPT作為生成式人工智能的新成果,顯示出不同于分析式人工智能的若干新功能。比如,生成對某一問題的回答從而成為聊天高手,生成人所需要的文案或藝術作品從而成為寫作或創(chuàng)作助手,生成計算機程序代碼從而成為編程能手……它正在不斷成為“知識生產”甚至“創(chuàng)造性工作”的新載體,以至于被視為橫空出世的“新物種”。其實,ChatGPT的生成功能根源于機器學習算法,迄今的生成式人工智能都基于這種算法,是經驗主義或歸納邏輯的認識論原則在算法理論中的體現。不同于分析式人工智能所遵循的從一般到個別的推理原則,生成式人工智能是從個別中歸納出一般,從大量的數據訓練中形成模型,然后用這種模型去“指導”對新的個別的認識。當ChatGPT以生成的方式進行信息處理時,確實顯示出與以分析的方式處理信息時的不同效用。然而,是否一旦具有生成功能,人工智能就可以威力無窮?并非如此。其一,生成有生成的長處,分析也有分析的長處。兩者在人類智能活動中是互補的,在人工智能中也是如此。其二,即使是生成,也要進一步看是“何種生成”。就智能的生成性來說,也是多方面和多層次的。如果將ChatGPT的生成性與人類智能的生成性相比,它還只是一種初級的生成性,較人類智能的生成性還有相當大的距離,尤其還不能實現后者的創(chuàng)造性生成。從嚴格意義上看,ChatGPT的生成只是信息的生成而非知識的生成。哲學界一般認為,知識是“被驗證的真信念”。ChatGPT所生成的東西,既未被驗證,也不一定為真。事實上,它常常會輸出錯誤的答案,生成一些“一本正經的胡說”。它不像分析式人工智能那樣基于演繹推算在輸出結果上具有唯一性,而是會因歸納和綜合材料的變化而使生成結論也發(fā)生變化。當歸納或綜合了錯誤的歪曲性的信息時,就會生成“扭曲事實”的錯誤結論。所以,至少在目前的水平上,ChatGPT所做的“工作”只能算是“信息的加工”,所生成的是“新信息”而非可靠的“真知識”。ChatGPT的生成是一種“從有到有”的生成,即一種“有”生成另一種“有”,而非“無中生有”的生成。智能領域最重要的生成,是“無中生有”的生成。ChatGPT的生成,是將“既有”的東西經過濃縮或轉譯后生成為另一種“有”,無非是“既有”的改頭換面,這是只具備初級智能就可以完成的任務。而人則不然,在少信息甚至無信息的情況下,人類智能也能生成有,形成全新的信息或知識。這才是真正的“創(chuàng)造性生成”。ChatGPT生成能力的增強,并未從根本上動搖人機之間的主客關系。它并沒有形成可以與人的創(chuàng)造性生成智能媲美的能力。因而也沒有從實質上取代人的智能和職能,兩者的關系仍舊未變:人是ChatGPT的使用者,ChatGPT是人的工具;人提出問題,機器生成答案,答案服務于問題,機器滿足人的需要。另外,ChatGPT只是在信息處理過程中生成了類似人回答問題的文本,還不可能生成自我意識、主體意向、動機欲望。而人在應對環(huán)境的智能活動中,是不斷生成自我意識的,而這才是“高端生成能力”即創(chuàng)造能力的本體論根源。所以,ChatGPT還停留在弱人工智能的水平上。從本質上,它仍然只是模式識別技術,是機器學習算法范疇內的模型和場景應用的一次飛躍,還夠不上“革命”的稱謂。但即便如此,ChatGPT的意義也是不容忽視的。它將機器思維的長處發(fā)揮得更透徹,借助它可形成人與機器之間協同式、互聯式的知識生產,造就混合智能或腦機互惠的新形態(tài),由此進入人機分工的新階段:由智能系統(tǒng)更多更高效地完成工具性的智能工作,人類則能夠更充分地發(fā)揮自己作為主體的作用,即向技術系統(tǒng)提出任務、設定目標、啟動其運行并享受其帶來的成果。在這個意義上,“ChatGPT恐懼”和“ChatGPT崇拜”一樣,都是不必要的。鑒于此,一方面ChatGPT確實因為對機器智能生成性的新開發(fā)新應用,展現了新的功能甚至新的神奇;另一方面也要看到,這種生成僅僅是智能模擬的初級功能,還不是真正“知識創(chuàng)新”意義上的知識生成,所以需要以平常心看待它的意義,需要在ChatGPT的“附魅”熱潮中加以必要的“祛魅”。(摘編自肖峰《何種生成?能否創(chuàng)造?——ChatGPT的附魅與祛魅》)(1)下列對材料相關內容的梳理,不正確的一項是A.分析式人工智能:分析數據→找到規(guī)律→滿足用例需求B.生成式人工智能:數據訓練→形成模型→生成新的內容C.ChatGPT:既有信息或知識→濃縮或轉譯→新信息或知識D.人機分工新階段:人類提出任務→智能系統(tǒng)輔助→人類享受成果(2)下列對材料相關內容的理解和分析,不正確的一項是A.生成式人工智能可以幫助人們更好、更快并以成本更低的方式創(chuàng)作,不斷降低創(chuàng)作與知識類勞動的邊際成本,也可能顛覆部分行業(yè),取代某些崗位。B.分析式人工智能所遵循的是從一般到個別的歸納推理原則,在輸出結果上具有唯一性;而生成式人工智能從個別中歸納出一般,遵循演繹推理原則。C.材料一認為生成式人工智能具備創(chuàng)造能力,某些情況下甚至能超越人類;材料二認為其目前與人類智能的生成性相差甚遠,還不能實現真正的創(chuàng)造。D.材料二中,“附魅”指人們的“ChatGPT恐懼”或“ChatGPT崇拜”行為,“祛魅”體現為作者呼吁人們在ChatGPT的“附魅”熱潮中保持冷靜和理性。(3)根據材料內容,下列說法正確的一項是A.材料一作者署名中的“GPT﹣3”是一種生成式人工智能,這說明寫作領域已實現人機協作,發(fā)展空間廣闊。B.ChatGPT可以根據李白的詩歌歸納出一定的算法規(guī)則,然后模仿李白的風格,創(chuàng)作出媲美李白詩歌的作品。C.如果ChatGPT歸納或綜合的是正確的信息,那就不會輸出錯誤的答案,也不會生成“一本正經”的胡說。D.ChatGPT不能從實質上取代人的智能和職能,也沒有從根本上動搖人機之間的主客關系,其意義十分有限。(4)圍繞對ChatGPT“祛魅”這一論題,材料二是如何展開論證的?請簡要分析。(5)有人認為,生成式人工智能發(fā)展到現在,“機器人寫作”能完全取代人類寫作。請結合材料對此觀點加以反駁。9.閱讀下面的文字,完成下面小題。材料一似乎在一夜之間,周圍不少朋友都在討論一款名為ChatGPT的人工智能聊天程序。有人用它即興創(chuàng)作詩歌,有人試圖用它設計小說大綱,還有程序員用它解決工作問題……根據多家媒體引述的調查結果,89%的美國大學生在用ChatGPT寫作業(yè)。這個數據恐怕是言過其實了,但至少說明該程序在解答問題方面具有顯著優(yōu)勢。人工智能聊天程序并不新鮮。比如,不少網絡平臺使用人工智能客服。不過,很多人工智能客服帶給人的感受實在一言難盡,機械重復的話術、“禮貌”而毫無信息增量的反饋等,都讓人“想摔手機”。ChatGPT誕生及其給人留下的“驚艷”印象,未必是因為它使用了許多具有突破性的技術,而是它搜集了更多的素材,因此能夠更加“聰明”地回答用戶的提問。對此,一些行業(yè)的從業(yè)者不乏“本領焦慮”。有人讓ChatGPT寫一篇時評,它洋洋灑灑寫了幾百字,用戶評價稱“雖然不算特別出彩,但也中規(guī)中矩”。有自媒體運營者試圖讓ChatGPT分析某國產車品牌能否打敗國外競品,結果程序輸出了一篇有觀點和簡要論述的分析短文。對于一些大學課程的作業(yè),ChatGPT也能“應對自如”。它的出現讓人不得不承認:人工智能不僅能夠回答“客觀題”,還可以有模有樣地回答一些“主觀題”了。但是,大可不必就此認定ChatGPT是某些行業(yè)的“終結者”。目前,機器對于各類問題的理解,并非真正的“理解”,而是基于海量素材的整理歸納。例如,有人用杜撰的學術概念“鏡像等離子規(guī)范場”提問,結果發(fā)現人工智能不懂裝懂地賣弄“學識”。而在回答一些社會問題時,盡管人工智能輸出了看似結構完整的文章,但不少答案依然“驢唇不對馬嘴”,或者充滿了“正確而無用的廢話”。對于重復性的、記憶性的問題,人工智能確實越來越得心應手了。之所以大學生很快“愛上”這款程序,是因為大學里不少作業(yè)并不真正考查學生的創(chuàng)新能力,只要重復教科書中的現成理論,再加上一點網絡上能搜到的案例即可。人工智能看似“聰明”,實則只是無意識的表現。比如,比起創(chuàng)作一篇小說或寫一篇原創(chuàng)散文,人工智能更容易成為一個“詩人”,這是因為詩歌在形式上更加抽象,也更容易通過組合不同詞語實現模仿;還有人喜歡用人工智能作畫,敲幾個關鍵詞,就能輸出一幅基本功扎實的畫作,但說實話,這些畫充其量只是替代了某些“藝術工廠”的流水線式生產。當然,這并不意味著人工智能對創(chuàng)造性工作來說一無是處。人工智能學者王詠剛就認為:“無論是AI對話、AI寫文章還是AI作畫,大規(guī)模預訓練模型固有的非確定性、發(fā)散性、天馬行空的特點,恰好可以成為激發(fā)人類靈感的好幫手?!比说撵`感并非從天而降,很多時候正是“站在巨人的肩膀上”,而人工智能背后的龐大數據庫,可以扮演“巨人”角色,讓創(chuàng)造者站得更高、看得更遠。(摘編自王鐘的《看似無所不能,ChatGPT會不會成為行業(yè)“終結者”》)材料二ChatGPT是人工智能研究公司OpenAI研發(fā)的最新聊天機器人模型。現實生活中,各種應用軟件里的機器人客服,以及蘋果手機的Siri,國產智能音箱里的小度、小愛、天貓精靈等,廣義上都是與ChatGPT類似的人工智能產品。它們能夠通過理解人類語言與互動者進行對話,還能根據聊天上下文進行互動等。只不過,ChatGPT學習能力最強,“智慧”等級最高,能夠回答人類提出的各種遠超以往難度的復雜問題,致使其火爆全球。ChatGPT在和全球網友互動中,有著各種令人吃驚的成績。參加了美國高校的入學資格考試(SAT),成績?yōu)橹械葘W生水平;用《坎特伯雷故事集》風格改寫了90年代熱門歌曲《BabyGotBack》;用《老友記》主角口吻創(chuàng)作了劇本對白;構思了簡短的偵探小說;簡要闡釋了經濟學理論;給出了消除經濟不平等的六點計劃……ChatGPT甚至能夠按照預設的道德準則,從“人類反饋中強化學習”,以此識別惡意信息并拒絕給出有效回答。在某種意義上,ChatGPT越來越像一個“真實的人”。理論上,只要算力足夠強大,ChatGPT與人類的互動越多,它就將“成長”越快。雖然大型語言模型無法像人類一樣思考,但基于模型算法得出的答案,在傳播理論的助推下,越來越具有迷惑性,也越來越真實。這意味著ChatGPT能夠形成具備一定邏輯的“思考”結果,而基于這一能力,已經有很多人開始通過ChatGPT取巧逃避本應需要人類大腦思考而進行的工作。巴黎政治大學已宣布,禁止使用ChatGPT等一切基于AI的工具,旨在防止學術欺詐和剽竊;外國專家表示ChatGPT將增加虛假信息風險;斯坦福團隊推出DetectGPT,阻止學生用AI寫作業(yè)。ChatGPT面世僅2個月,就已經影響到了人類社會。人們在暢想高科技的未來社會的同時,實際很難想象出下一代的人工智能交互產品能夠發(fā)展并影響人類到何種地步。讓人工智能不斷進化演變,最終能夠像人類一樣思考,本是這一科研領域的終極目標。只要時間足夠長,人工智能必然能夠發(fā)展具備科幻電影里所描繪的能力。但正如科幻電影里的人工智能總會超出人類控制一樣,當前基于大數據學習和給定模型下的人工智能始終存在著近乎無解的“黑箱”弊端——人們無法理解算法背后的各種邏輯,以及在這些邏輯下運行程序將會對人造成的影響。故而,雖然ChatGPT的出現并不令人意外,但還是讓人類社會有點措手不及??梢灶A見的是,“真實的人”群體只會在未來社會中越來越多地出現,充當各種各樣的角色。也因此,每每有更為先進的人工智能產品面世,人們都會想要從倫理、法律等多重角度審視。宏觀層面對人工智能發(fā)展進行必要約束,已經在人類社會取得共識。這正說明,能夠始終保持獨立冷靜思考的人類,最終將會把控住人工智能乃至科技發(fā)展的方向?;谶@份清醒,人工智能的不斷迭代發(fā)展就有望保持平衡,算法“黑箱”也最終有望破解。(摘編自光明網評論員《ChatGPT會影響到人類社會嗎》)(1)下列對材料相關內容的理解和分析,正確的一項是A.ChatGPT功能強大,火爆全球。多家媒體引述的調查結果表明,有接近百分之九十的大學生在用它寫作業(yè)。B.ChatGPT不僅能與人類進行互動,還能夠按照人類預設的道德準則加強學習,以此來識別惡意信息并拒絕給出有效回答。C.人工智能看似“聰明”,實際上只是無意識的表現,沒有思考能力,只能機械地參與一些自動流水線式的生產過程。D.始終保持獨立冷靜思考的人類,最終將會破解人工智能的算法“黑箱”,把控人工智能和科技發(fā)展的方向。(2)根據材料內容,下列說法不正確的一項是A.ChatGPT的誕生,給世人留下了深刻的印象,主要原因是它搜集了海量素材,能夠更加靈活地回答用戶的高難度問題。B.一些大學課后作業(yè)可以用人工智能來“應對自如”地完成,這也給大學老師提出了警醒:以后老師布置的作業(yè)是不是要更加注重創(chuàng)新力?C.隨著人工智能技術的不斷發(fā)展,人類社會可能會面臨人工智能超出人類控制的危險,所以我們有必要采取一定的措施來規(guī)范和引導人工智能的發(fā)展。D.ChatGPT在算力足夠強大的情況下,成長越快,與人類的互動越多,會越來越接近一個真實的人。(3)根據材料內容,下列哪組職業(yè)不容易被人工智能取代?①汽車駕駛員②流水線操作員③精神科醫(yī)生④特種警察⑤市場信息編輯⑥電話熱線客服⑦藝術工作者吧⑧保險銷售員A.①②⑤B.③④⑦C.②⑤⑥D.⑤⑥⑧(4)兩則材料在論證方法上主要有何相似之處?請結合文本具體說明。(5)2023年3月31日,意大利對ChatGPT下了封殺令,即日起,全面禁止使用聊天機器人ChatGPT,并開始立案調查。請結合材料,談談你對這一事件的看法。10.閱讀下面的文字,完成問題。材料一:人工智能是指通過分析其環(huán)境而具有一定程度的自主性行動,以實現特定目標而顯示智能行為的系統(tǒng)。近來研究更趨向于將人工智能定義為建立在現代算法基礎上,以歷史數據為支撐而形成的具有感知、推理、學習、決策等思維活動并能夠按照一定目標完成相應行為的計算系統(tǒng)。目前眾多基于人工智能的系統(tǒng)已廣泛應用,如搜索引擎通過處理海量數據,將原本混亂的互聯網以人類可理解的、可感知的形式呈現出來;無人駕駛通過傳感器感知環(huán)境而實現轉向、加速和制動。這些為增強與替代人類的活動和任務提供了變革潛力,逐漸提升了人類的感知、思考和對世界采取行動的能力。人工智能具有以往技術無法企及的增強人類活動的特點,且在某種程度上以獨立的、不可預測的方式通過采取精準行動而做出決策。一些學者認為,以大數據和算法匹配的人工智能正在不可逆轉地重塑人類生活、工作和交往的方式,但與此同時也帶來了公共安全風險、算法偏見問題、責任倫理問題等一系列的挑戰(zhàn)。回溯人工智能發(fā)展歷程,不管是符號主義、聯結主義還是行為主義,其發(fā)展的核心是由數據驅動算法的不斷升級和優(yōu)化。數據是“基本驅動力”,而算法是“一種有限、確定、有效并適合用計算機程序來實現的解決問題的方法”。從技術底層邏輯來看,人工智能存在的不確定性風險主要來源于數據與算法:其一是數據的不當收集和處理。人工智能的發(fā)展以海量信息作支撐,各類數據信息采集覆蓋于數字化空間中,如個人身份、網絡行為等。如不采取合理的治理措施,人類將面臨隱私“裸奔”的尷尬局面,進而觸發(fā)極大的倫理風險。其二是算法內在缺陷及其不當使用。在技術層面,算法就是一些復雜的電腦代碼程式,并不具有情感或價值偏見,但是由于在編碼、運用過程中離不開設計者和開發(fā)者的主觀意志,有可能將個人情感、社會觀、價值觀嵌入技術中,造成如算法失算、算法歧視、算法“黑箱”、審查難等問題,從而導致人工智能的“脫靶”現象,即背離既定的正面目標而產生相反的破壞活動。像ChatGPT,其強大的信息檢索和數據存儲功能確實給人類生活、工作帶來了福祉,但如不對輸出加以控制,可能生成種族主義、性別歧視之類有偏見的內容或有害指令信息,擾亂社會公平和正義。(摘編自劉丹鶴孫嘉悅《人工智能規(guī)制政策制定的風險與治理》)材料二:在人機互動中,人具有思想和情感,ChatGPT在涉及人類情感的細微之處或措辭的把握上并不準確,例如,男女之間的語言通常帶有性別化表述特征,ChatGPT在互動問答中將形成普遍性的或“非人非機”雙向訓練的“中性化”融合式表述方式,主體的個性化語言特質在ChatGPT互動中試圖鏈接理解它的普遍化特征,在語言主體間性過程中形成的語言“混合物”將對其話語風格和語言倫理產生影響,這是從生活方式到表達方式的改變,語言的趨同化或同質化將被規(guī)訓并固定。這一改變是語言倫理領域的改變,表達方式的改變是文化學意義上的話語革命,但其不是語言倫理關于語言使用的道德準則和規(guī)范性話語價值的體現。趙汀陽認為,不能過于注重人工智能的“擬人化”,擬人化并不意味著否定有用性,而是人工智能試圖擁有人的情感、價值觀。人并不完美,將人工智能擬人化是非??膳虑蚁麡O的事情。真正的主體性在無限的馴化中成為智能機器人的訓練客體,這是主體客體化的一種變現。ChatGPT將人的主體性話語轉化為客體的結果,即人的語言物化癥候。ChatGPT的訓練和被訓練會規(guī)制與被規(guī)訓,更加實在地呈現效果,如同ChatGPT掌控受眾想象力的空間或方式,成為技術異化后統(tǒng)治人類的一門藝術。法國學者勒龐在《烏合之眾:大眾心理研究》一書中指出:“影響民眾想像力的,并不是事實本身,而是它們發(fā)生和引起注意的方式。如果讓我表明看法的話,我會說,必須對它們進行濃縮加工,它們才會形成一種令人瞠目結舌的驚人形象。掌握了影響群眾想像力的藝術,也就掌握了統(tǒng)治他們的藝術?!比说膹谋娦睦韺⑥D變?yōu)閺闹悄軝C器人心理,在廣泛的社會語境中被認為是個性化的敘事方式被人工智能以潛移默化的方式改變,語言的長期改變會滲透其情感認知、倫理行為和整體行為的走向,對人的價值信仰、態(tài)度和行為產生重要影響,這既是值得關注的科技哲學問題,又是倫理問題。人工智能正在接管學術界甚至世界,即使這一擔憂不是主要的,卻將長期存在。人工智能模型可以快速復制已有學術文獻,雖然其復制的文獻沒有出處,沒有正確性的考證來源,但ChatGPT會不斷產生其認為的客觀答案,生成虛假的學術文本,其對學術道德的影響是深遠的。因此,使用人工智能模型時仍需謹慎,ChatGPT被視為“嘴替”或“文替”,數據的濫用或對知識的不完整性采用,將為錯誤信息的傳播埋下風險和隱患。在使用ChatGPT的過程中要遵循學術倫理,以確保學術的真實性和公正性。人工智能被界定為在某一情境中采取最好可能行動的理性行動者,而不能在實踐中走向道德理性的反面。在倫理規(guī)則方面,2021年,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,提出“將倫理道德融入人工智能研發(fā)和應用的全生命周期”。吳沈括認為,在人工智能治理過程中,倫理和法律應在不同層次相互配合,唯有如此,才能在不同程度的風險處置過程中形成有效且廣泛的保護網絡。對于人工智能發(fā)展過程中產生的中高風險,需要用法律劃定行為紅線,最大限度降低風險程度。(摘編自令小雄王鼎民袁健《ChatGPT爆火后關于科技倫理及學術倫理的冷思考》)(1)下列對材料相關內容的理解和分析,不正確的一項是A.人工智能是一種計算系統(tǒng),它以現代算法為基礎,以歷史數據為支撐,具有人的某些思維活動。B.人工智能在增強人類活動方面具有以往技術無法企及的優(yōu)勢,它可以通過采取精準行動做出決策。C.人工智能是復雜的電腦代碼程式,并不具有情感或價值偏見,但在開發(fā)過程中可能嵌入人的主觀意志。D.人工智能改變了個性化的敘事方式,這一改變會對人的價值信仰、態(tài)度和行為產生重要的影響。(2)根據材料內容,下列說法正確的一項是A.人工智能為增強與替代人類的活動和任務提供了變革潛力,隨著人工智能系統(tǒng)的應用,人類的活動將會被替代。B.人工智能能夠重塑人類生活、工作和交往的方式,它給人類帶來巨大機遇的同時也帶來了一系列的挑戰(zhàn)。C.人機對話中主體的個性化語言特質與普遍化特征相鏈接,人的主體性話語轉化為客體的結果,主體性隨之消失。D.在人工智能治理過程中,只要倫理和法律在不同層次相互配合,就能在風險處置過程中形成有效廣泛的保護網絡。(3)近日,有關專家呼吁暫停聊天機器人ChatGPT的進一步研發(fā)。請結合材料,試分析這一做法的原因。11.閱讀下面的文字,完成下面小題。近日,華西都市報、封面新聞記者面對面專訪來成都講課的俞曉紅教授。她分享了自己幾十年研究《紅樓夢》的體會、心得,以及需要向受眾廣泛傳輸的見解等。她認為,解讀《紅樓夢》不是哪一個人的專利,人人都可以講,沒必要去追究學術性高低,研究紅樓夢需要開放包容的心態(tài)。俞曉紅專門為中學語文教師寫了一本專著《漫卷紅樓:整本書閱讀視野下的<紅樓夢>研究》,她將自己幾十年的紅學學術功底融匯其中,啟發(fā)廣大讀者尤其是中學語文教師更好地進行整本書閱讀教學指導,更好地引導青少年對《紅樓夢》的閱讀從“碎片化”走向“整體化”。業(yè)內稱之為“目前有關《紅樓夢》整本書閱讀研究中寫得最好的一部”。一記者:讀高一的學生,一般是十五六歲的孩子。給這個年紀的讀者講《紅樓夢》,會與成年人講解有所不同嗎?俞

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論