《人工智能大語言模型應用教程》高職全套教學課件_第1頁
《人工智能大語言模型應用教程》高職全套教學課件_第2頁
《人工智能大語言模型應用教程》高職全套教學課件_第3頁
《人工智能大語言模型應用教程》高職全套教學課件_第4頁
《人工智能大語言模型應用教程》高職全套教學課件_第5頁
已閱讀5頁,還剩108頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能大語言模型應用教程模塊1大語言模型概述全套可編輯PPT課件

本課件是可編輯的正常PPT課件學習

目標理解大語言模型的基本概念;了解大語言模型的應用場景;了解大語言模型的發(fā)展歷程;掌握開源大模型的本地部署與應用的安裝、微調、量化、開發(fā)等主要操作的概念;熟悉大語言模型的CUDA、PyTorc

h、Anaconda和Transformers等常用組件的功能;認識大語言模型對社會發(fā)展的影響,培養(yǎng)對技術的興趣和對社會的責任感;自主查閱相關資料,提升信息檢索能力;樹立安全意識,培養(yǎng)遵守法律意識,通過合法途徑獲取應用和數(shù)據(jù)。本課件是可編輯的正常PPT課件1.2大語言模型概述基本情況應用場景發(fā)展歷程主要操作常用組件1.31.41.51.1本課件是可編輯的正常PPT課件1.1基本情況本課件是可編輯的正常PPT課件大語言模型在文本生成、智能語音應用、圖像生成與識別、視頻生成等領域發(fā)揮越來越重要的作用,與多模態(tài)模型、AIAgent等技術一起推動著人工智能技術的發(fā)展和應用,成為當今人工智能領域的熱門研究方向,在實際應用中具有廣泛的用途。大語言模型可以用于自動文本生成,如文章寫作、詩歌創(chuàng)作、程序補全等大語言模型還可以應用于智能對話系統(tǒng),與用戶進行自然對話交流,如應用到醫(yī)療、金融、教育等領域的問答、咨詢和分析等場景中大語言模型還可以用于信息檢索、情感分析、文本分類等任務隨著技術的發(fā)展,大語言模型已超越了文生文的單一領域應用,逐步應用到文生圖、圖生圖、文生視頻等多種模態(tài)場景中。本課件是可編輯的正常PPT課件大語言模型處于高速發(fā)展期,以OpenAI的GPT系列模型為主要代表,目前最新的模型是GPT4-o3,在編碼、數(shù)學以及ARC-AGI基準測試方面依然處于業(yè)界領先地位,其下一代模型GPT5仍然在訓練中。其他廠商的產品也在迅速跟進,如Meta的LLama3.3、Anthropic的Claude3.5、Google的Gemma2等,也都表現(xiàn)出良好的推理效果國內如百度文心一言、阿里通義千問、智譜GLM、華為盤古、訊飛星火等,發(fā)展也非常迅速,被廣泛應用到各個專業(yè)領域,如教學、醫(yī)藥、會計、農業(yè)等。本課件是可編輯的正常PPT課件1.2應用場景本課件是可編輯的正常PPT課件本課件是可編輯的正常PPT課件1.3發(fā)展歷程本課件是可編輯的正常PPT課件發(fā)展歷程發(fā)展歷程統(tǒng)計語言模型神經(jīng)網(wǎng)絡語言模型Seq2Seq模型Transformer模型GPT系列模型單擊添加標題單擊添加標題本課件是可編輯的正常PPT課件1.4主要操作本課件是可編輯的正常PPT課件大語言模型的主要操作使用部署微調量化應用本課件是可編輯的正常PPT課件大語言模型應用領域程序開發(fā)工業(yè)設計文案撰寫搜索增強商業(yè)化的大語言模型開源的大語言模型使用常用大語言模型本課件是可編輯的正常PPT課件中小規(guī)模的大語言模型部署中小規(guī)模的大語言模型可以部署到消費級顯卡和中低端的推理卡環(huán)境工業(yè)設計轉化為Huggingface格式,由Huggingface開發(fā)的Transformers庫加載、推理、微調部署Huggingface.co網(wǎng)站托管本課件是可編輯的正常PPT課件預訓練模型通過大規(guī)模的文本語料庫進行自監(jiān)督學習,從而學習到語言的結構和規(guī)律,形成預訓練模型。模型根據(jù)特定任務的數(shù)據(jù)集進行有監(jiān)督學習,提高在該任務上的性能表現(xiàn),以適應具體的應用場景。微調微調本課件是可編輯的正常PPT課件

將大型語言模型中的參數(shù)表示為低精度的形式,以減少模型的存儲空間和計算需求,同時保持模型的性能,使其在較低算力的GPU或CPU上進行推理,甚至可在移動設備或邊緣設備上運行。量化本課件是可編輯的正常PPT課件Chat方式

聊天翻譯語音圖片視頻等應用多模態(tài)應用檢索知識庫本課件是可編輯的正常PPT課件1.5常用組件本課件是可編輯的正常PPT課件并行計算平臺和編程模型NVIDIA公司開發(fā),于2005年首次發(fā)布使用C語言編寫并行代碼將GPU作為計算設備,編寫的高性能計算應用程序可以在GPU上運行提供了一個CUDAClibrary,用于在C語言中使用CUDA編程模型具有廣泛的兼容性,可運行在Windows、Linux和macOS等操作系統(tǒng)上CUDA本課件是可編輯的正常PPT課件PyTorch靈活性和易用性,已經(jīng)成為深度學習領域中的一個流行工具,并被廣泛應用于學術研究和工業(yè)應用中。支持動態(tài)計算圖,這意味著用戶可以在運行時動態(tài)構建和修改計算圖,從而更靈活地進行模型設計和調試。0304提供了豐富的工具和庫,包括張量計算、自動微分、神經(jīng)網(wǎng)絡模塊等,使得用戶可以輕松地進行模型訓練、推理和部署。Facebook開源的一個機器學習庫,主要用于深度學習任務,具有靈活的設計和易用的接口,使得用戶可以快速構建和訓練神經(jīng)網(wǎng)絡模型0102PyTorch本課件是可編輯的正常PPT課件Anaconda存在的問題Python環(huán)境包括了Python發(fā)行版和大語言模型依賴的第三方庫,模型不同,對Python發(fā)行版的版本要求不同,依賴庫更是千差萬別,直接在操作系統(tǒng)上同時運行兩個及以上的模型比較困難運行環(huán)境隔離——AnacondaPython的發(fā)行版,提供一系列用于科學計算的庫內置了一個用于Python環(huán)境隔離的虛擬化環(huán)境,以一種統(tǒng)一的方式來安裝和管理Python庫。實現(xiàn)Python運行環(huán)境的虛擬化隔離,在一個操作系統(tǒng)里為不同模型建立不同的命名空間,形成相互隔離的Python發(fā)行版和依賴庫。本課件是可編輯的正常PPT課件Transformers提供一個統(tǒng)一的接口來訪問和使用各種預訓練的Transformer模型NLP領域最受歡迎和廣泛使用的庫之一,為研究者和開發(fā)者提供了豐富的資源和工具,幫助他們構建和訓練高性能的NLP模型?;赑yTorch的開源機器學習庫,由Huggingface開發(fā)提供了各種預訓練和定制化的神經(jīng)網(wǎng)絡模型,包括文本分類、自然語言生成、圖像分類、目標檢測等任務,可用于多種模型的裝入、微調、多GPU訓練和分布式訓練等。Transformers本課件是可編輯的正常PPT課件小結基本情況應用場景發(fā)展歷程主要操作常用組件大語言模型概述本課件是可編輯的正常PPT課件人工智能大語言模型應用教程模塊2開發(fā)環(huán)境搭建本課件是可編輯的正常PPT課件學習

目標

掌握搭建大語言模型環(huán)境所需的軟硬件環(huán)境;

掌握大語言模型的硬件設備安裝步驟;

掌握不同操作系統(tǒng)下大語言模型運行環(huán)境安裝的步驟;

能夠在Linux操作系統(tǒng)(CentOS或Ubuntu)下安裝推理卡驅動、CUDA和Anaconda;

能夠在Windows操作系統(tǒng)下安裝推理卡驅動、CUDA和Anaconda的過程;

能夠驗證大語言模型常用組件是否安裝成功;

培養(yǎng)分析解決問題能力,提高動手實踐能力;

培養(yǎng)嚴謹認真的工作態(tài)度,養(yǎng)成規(guī)范操作的習慣;

培養(yǎng)代碼調試和代碼分析能力。本課件是可編輯的正常PPT課件2.2大語言模型概述硬件設備安裝運行環(huán)境安裝(CentOS)運行環(huán)境安裝(Ubuntu)運行環(huán)境安裝(Windows)2.32.42.1本課件是可編輯的正常PPT課件2.1硬件設備安裝本課件是可編輯的正常PPT課件大語言模型應用系統(tǒng)的硬件環(huán)境是服務器和推理卡(或顯卡)服務器可以使用高端的PC機代替硬件配置方面主要是對主板、電源有要求,至少需要750W的電源主板需要支持指定型號的顯卡或推理卡。顯卡與推理卡都包含有GPU,但又有所區(qū)別顯卡主要用于圖形和視頻處理,而推理卡主要用于深度學習和人工智能推理任務。兩者在硬件設計和功能上有所不同,適用于不同的應用場景和任務需求。運行大語言模型的常用顯卡有RTX2080(Ti)、RTX3070、RTX3080、RTX3090、RTX4090等。常用的推理卡有P100、V100、A100、T4等。硬件設備需求本課件是可編輯的正常PPT課件以GERORCERTX2080Ti推理卡為例,在安裝時,將卡插入主板上的插槽,上緊螺絲,確??ü潭ɡ喂毯驼I嵬评砜ò惭b本課件是可編輯的正常PPT課件2.2運行環(huán)境安裝(CentOS)本課件是可編輯的正常PPT課件2.2.1更新操作系統(tǒng)#更新操作系統(tǒng)中已安裝的軟件包sudoyumupdate#修改模塊禁用配置文件sudovim/usr/lib/modprobe.d/dist-blacklist.conf#增加兩行配置blacklistnouveauoptionsnouveaumodeset=0#備份當前操作系統(tǒng)鏡像sudomv/boot/initramfs-$(uname-r).img/boot/initramfs-$(uname-r).img.bak#建立操作系統(tǒng)新鏡像sudodracut/boot/initramfs-$(uname-r).img$(uname-r)#重啟操作系統(tǒng)sudoreboot#禁用xserver服務sudoinit3#校驗nouveau是否禁用lsmod|grepnouveau#如果結果為空,則說明禁用成功本課件是可編輯的正常PPT課件2.2.2安裝依賴庫#查看Linux內核版本號uname-r#根據(jù)kernel版本號,比如版本號為3.10.0-1160.80.1.el7.x86_64,則執(zhí)行以下命令sudoyuminstallgcckernel-devel-3.10.0-1160.80.1.el7.x86_64kernel-headers-ysudoyum-yinstallepel-releasesudoyum-yinstallgccbinutilswgetsudoyum-yinstallkernel-devel#安裝NVIDIA診斷程序sudoyum-yinstall/elrepo-release-7.0-4.el7.elrepo.noarch.rpmsudoyum-yinstallnvidia-detect本課件是可編輯的正常PPT課件2.2.3安裝推理卡驅動#自動偵測卡推理驅動nvidia-detect-v#根據(jù)檢測的驅動情況下載相應的安裝包,如檢測的結果是550.76,則wget/XFree86/Linux-x86_64/550.76/NVIDIA-Linux-x86_64-550.76.run#執(zhí)行安裝sudosh./NVIDIA-Linux-x86_64-550.76.run#安裝過程選默認值,有一些警告信息,忽略即可#驗證結果,見圖2-2,安裝成功后,nvidia-smi會顯示推理卡驅動程序版本、支持的CUDA版本、電源使用情況及GPU內存占用情況、GPU利用率、推理卡溫度等指標等。nvidia-smi本課件是可編輯的正常PPT課件2.2.4安裝CUDA#確認CUDA安裝包版本,訪問以下網(wǎng)址/cuda-toolkit-archive#按nvidia-smi命令執(zhí)行結果的右上角看到的CUDA版本號進入相應鏈接,如CUDAVersion:12.4/cuda-12-4-0-download-archive#選擇相應的版本后,確認下載的版本,見圖2-3#下載CUDA安裝包wget/compute/cuda/12.4.1/local_installers/cuda_12.4.1_550.54.15_linux.runsudoshcuda_12.4.1_550.54.15_linux.run#執(zhí)行安裝sudoshcuda_11.7.1_515.65.01_linux.run#安裝過程中需要有接受協(xié)議的選項,要輸入:accept后回車,見圖2-4#安裝過程中需要選擇安裝選項,在這里利用空格鍵去掉driver前的對勾,因為前面我們已經(jīng)安裝了驅動,然后用方向鍵選install后回車,見圖2-5本課件是可編輯的正常PPT課件2.2.4安裝CUDA#增加環(huán)境變量

見圖2-6vim~/.bashrc#在最后增加兩行exportPATH=/usr/local/cuda-12.4/bin:$PATHexportLD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.4/lib64#應用環(huán)境變量source~/.bashrc#驗證CUDAnvcc-V#顯示信息類似如下nvcc:NVIDIA(R)CudacompilerdriverCopyright(c)2005-2024NVIDIACorporationBuiltonThu_Mar_28_02:18:24_PDT_2024Cudacompilationtools,release12.4,V12.4.131Buildcuda_12.4.r12.4/compiler.34097967_0本課件是可編輯的正常PPT課件2.2.5安裝Anaconda#下載Anaconda安裝包wget/archive/Anaconda3-2024.02-1-Linux-x86_64.sh#安裝,注意不要用sudosh./Anaconda3-2024.02-1-Linux-x86_64.sh#應用環(huán)境變量source~/.bashrc#驗證conda--version#驗證如果報錯,重新SSH再試本課件是可編輯的正常PPT課件2.3運行環(huán)境安裝(Ubuntu)本課件是可編輯的正常PPT課件2.3.1更新操作系統(tǒng)#更新操作系統(tǒng)中已安裝的軟件包sudoapt-getupdate#安裝編譯環(huán)境sudoapt-getinstallg++sudoapt-getinstallgccsudoapt-getinstallmake本課件是可編輯的正常PPT課件2.3.2禁用nouveau#編輯blacklist.conf文件sudovi/etc/modprobe.d/blacklist.conf#在blacklist.conf末尾添加以下兩行blacklistnouveauoptionsnouveaumodeset=0#對上面修改的文件進行更新sudoupdate-initramfs-u#重啟計算機sudoreboot#禁用xserver服務sudoinit3#檢測是否禁用nouveau成功#lsmod如果沒有任何輸出,表示禁用成功lsmod|grepnouveau本課件是可編輯的正常PPT課件2.3.3安裝推理卡驅動#卸載原有NVIDIA驅動(如果有)sudoapt-getremove--purgenvidia*#查看推理卡硬件情況sudolshw-numeric-Cdisplaylspci|grepNVIDIA#下載驅動安裝包wget/XFree86/Linux-x86_64/550.76/NVIDIA-Linux-x86_64-550.76.run#安裝(如果第一遍報錯,再安裝一遍)sudosh./NVIDIA-Linux-x86_64-550.76.run#驗證安裝結果

見圖2-7,安裝成功后,nvidia-smi會顯示推理卡驅動程序版本、支持的CUDA版本、電源使用情況及GPU內存占用情況、GPU利用率、推理卡溫度等指標等。nvidia-smi本課件是可編輯的正常PPT課件2.3.4安裝CUDA#首先需要從NVIDIACUDAToolkitReleaseNotes中查看當前推理卡驅動對應的CUDA版本#以下鏈接可以看到版本對應關系#或者看nvidia-smi命令的右上角顯示CUDA版本支持信息/cuda-12-4-0-download-archive#以cuda12.4為例#下載安裝wget/compute/cuda/12.4.1/local_installers/cuda_12.4.1_550.54.15_linux.run#執(zhí)行安裝sudoshcuda_12.4.1_550.54.15_linux.run#安裝過程中需要有接受協(xié)議的選項,要輸入:accept后回車,見圖2-8#安裝過程中需要選擇安裝選項,在這里利用空格鍵去掉driver前的對勾#因為前面我們已經(jīng)安裝了驅動,然后用方向鍵選install后回車,見圖2-9#增加CUDA環(huán)境變量vim~/.bashrc本課件是可編輯的正常PPT課件2.3.4安裝CUDA#增加以下三行exportPATH=/usr/local/cuda-12.4/bin:$PATHexportLD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.4/lib64exportLIBRARY_PATH=$LIBRARY_PATH:/usr/local/cuda-12.4/lib64#應用環(huán)境變量source~/.bashrc#測試安裝結果

見圖2-10nvcc-V#出現(xiàn)下列類似信息,則表示安裝成功nvcc:NVIDIA(R)CudacompilerdriverCopyright(c)2005-2024NVIDIACorporationBuiltonThu_Mar_28_02:18:24_PDT_2024Cudacompilationtools,release12.4,V12.4.131Buildcuda_12.4.r12.4/compiler.34097967_0本課件是可編輯的正常PPT課件2.3.5安裝Anaconda#下載Anaconda安裝包wget/archive/Anaconda3-2024.02-1-Linux-x86_64.sh#安裝,注意不要用sudosh./Anaconda3-2024.02-1-Linux-x86_64.sh#應用環(huán)境變量source~/.bashrc#驗證conda--version#驗證如果報錯,重新SSH再試本課件是可編輯的正常PPT課件2.4運行環(huán)境安裝(Windows)本課件是可編輯的正常PPT課件2.4.1更新操作系統(tǒng)(1)打開Windows設置,點擊“開始”菜單,選擇“設置”圖標。(2)進入“更新與安全”,在設置窗口中找到“更新與安全”選項,點擊進入。(3)在“更新與安全”窗口中,點擊“檢查更新”按鈕,系統(tǒng)會自動檢查是否有可用的更新。(4)下載和安裝更新:如果有可用的更新,系統(tǒng)會顯示更新的詳細信息,點擊“下載”按鈕開始下載更新,然后點擊“安裝”按鈕安裝更新。(5)重啟計算機后,在“更新與安全”窗口中可以查看更新的狀態(tài),確保系統(tǒng)已經(jīng)成功更新到最新版本。本課件是可編輯的正常PPT課件2.4.2安裝推理卡驅動按照推理卡型號,從NVIDIA官網(wǎng)下載驅動程序進行安裝。安裝完成后,在桌面空白處點右鍵,打開NVIDIA控制面板,點系統(tǒng)信息->組件,查看CUDA支持情況。本課件是可編輯的正常PPT課件2.4.3安裝CUDA從CUDAToolkitArchive找到與推理卡驅動相匹配的CUDA版本,下載后安裝。安裝完成后,在命令行用“nvcc-V”命令測試是否安裝成功。本課件是可編輯的正常PPT課件2.4.4安裝Anacondaconda--versioncondainfo--envs從/下載安裝最新版本,安裝完成后,將Anaconda安裝目錄和Anaconda\Scripts加到操作系統(tǒng)的環(huán)境變量path中,并使用以下命令驗證本課件是可編輯的正常PPT課件小結硬件設備安裝運行環(huán)境安裝開發(fā)環(huán)境搭建CentOSUbuntuWindows本課件是可編輯的正常PPT課件人工智能大語言模型應用教程模塊3大語言模型應用基礎本課件是可編輯的正常PPT課件學習

目標

了解自然語言處理的概念,掌握自然語言處理主要內容;

理解大語言模型基本原理;

理解大語言模型的架構,如Transformer架構、注意力機制等;

能夠在本地安裝和部署ChatGLM3-6B模型環(huán)境;

能夠編寫代碼實現(xiàn)簡單大語言模型推理應用;

培養(yǎng)嚴謹認真的態(tài)度,養(yǎng)成規(guī)范編程的習慣;

培養(yǎng)分析解決問題的能力,養(yǎng)成獨立思考的習慣;

了解大語言模型在應用中可能涉及的倫理和法律問題,如隱私保護、數(shù)據(jù)安全等,在部署和應用過程中遵守相關法律法規(guī)和道德規(guī)范。本課件是可編輯的正常PPT課件3.2大語言模型概述設計目標開發(fā)環(huán)境原理學習實驗步驟3.33.43.1本課件是可編輯的正常PPT課件3.1設計目標本課件是可編輯的正常PPT課件對大語言模型的基本概念、基本原理的講解,通過國產大模型ChatGLM3-6B的安裝部署和應用,對大語言模型建立起基本的概念以及對原理的了解,直觀感受大語言模型的應用場景和運行原理設計目標本課件是可編輯的正常PPT課件3.2開發(fā)環(huán)境本課件是可編輯的正常PPT課件開發(fā)環(huán)境

硬件:服務器、推理卡(NVIDIA16G顯存以上)

軟件:Python、大語言模型ChatGLM3-6B本課件是可編輯的正常PPT課件3.3原理學習本課件是可編輯的正常PPT課件3.3.1系統(tǒng)功能概要虛擬操作指導在線問答解惑操作體驗反饋常見問題庫本課件是可編輯的正常PPT課件3.3.2自然語言處理概要涉及語音識別、自然語言理解、對話系統(tǒng)、機器翻譯等多個研究方向,在人機交互、互聯(lián)網(wǎng)搜索、智能客服、語音助手等領域都有廣泛的應用前景使機器可以分析、理解人類的語言,并以人類可以理解的方式反饋,對于構建更智能的人機交互系統(tǒng)具有重要意義0304研究目標是讓機器能夠真正地理解人類語言,并實現(xiàn)人機交互研究對象是人類語言,用于解決人類語言在計算機處理中的各種問題一門關于用機器處理和理解人類語言的理論和技術的研究領域,是人工智能的一個重要分支,也是計算語言學的一個子領域。0102自然語言處理本課件是可編輯的正常PPT課件3.3.2自然語言處理概要自然語言處理主要內容1.自然語言生成根據(jù)輸入的提示或上文信息,自動生成連續(xù)的自然語言文本。5.篇章分析對上下文和語義進行建模,理解篇章級語義,如用于撰寫論文的摘要。4.語義分析分析語句的語義,提取文本的語義信息,典型的應用場景是源代碼的解讀。2.詞法分析識別語言文本中的詞匯及其詞性,進行詞干提取、詞形還原等。3.句法分析識別句子成分及其語法關系和句法結構。本課件是可編輯的正常PPT課件自然語言處理主要內容6.對話系統(tǒng)使系統(tǒng)能夠理解用戶意圖,進行自然語言問答,支持多輪會話。10.知識圖譜構建概念實體及其關系的知識庫。9.語音識別與合成將語音轉錄成文字,或者將文字轉換成語音。7.機器翻譯使用算法將一種語言翻譯成另一種語言,這是自然語言處理最傳統(tǒng)的應用。8.信息提取從文本中提取結構化信息,典型應用場景如從電子病歷中提取醫(yī)療關鍵指標項。3.3.2自然語言處理概要本課件是可編輯的正常PPT課件3.3.3大語言模型基本原理減少了對大量標注數(shù)據(jù)的依賴,可進行自回歸生成,逐詞預測下一個最可能的詞匯通過掩碼語言模型、下一句預測等任務學習語言統(tǒng)計規(guī)律,之后在下游NLP任務進行模型微調,使其適應特定任務0304需要大量的帶有標簽的訓練數(shù)據(jù)來指導模型的預測一種深度學習技術,其特點之一就是通常不需要人工標注的數(shù)據(jù)進行訓練。0102自監(jiān)督預訓練本課件是可編輯的正常PPT課件3.3.3大語言模型基本原理大語言模型通常采用Transformer或其優(yōu)化版本作為模型骨干架構。Transformer最初在翻譯場景應用廣泛,輸入一種語言,經(jīng)Transformer轉化后,輸出另一種語言,與Transformer(可譯為變形金剛或變壓器)的本意近似。Transformer通過編碼器——解碼器結構,多頭注意力機制以及前饋全連接網(wǎng)絡,能夠學習語言中的長距離依賴關系,理解語義信息。1.Transformer架構本課件是可編輯的正常PPT課件3.3.3大語言模型基本原理Transformer由6層編碼器和6層解碼器組成每一層編碼器的輸入是前一個編碼器的輸出每一層解碼器的輸入不光是它的前一個解碼器的輸出,還包括了整個編碼部分的輸出。原始的文字通過編碼和解碼過程,最終形成目標文本。1.Transformer架構本課件是可編輯的正常PPT課件3.3.3大語言模型基本原理Transformer的多頭自注意力可以建模Token之間的相關性,學習文本全局的語義信息。每個編碼器(Encoder)的結構是一個自注意力機制加上一個前饋神經(jīng)網(wǎng)絡Self-attention的輸入就是詞向量,即整個模型的最初的輸入是詞向量的形式自注意力機制是自己和自己計算一遍注意力,即對每一個輸入的詞向量,我們需要構建Self-attention的輸入。2.注意力機制本課件是可編輯的正常PPT課件3.4實驗步驟本課件是可編輯的正常PPT課件3.4.1安裝部署(1)下載ChatGLM3源碼(2)建立python3.10虛擬環(huán)境(3)在ChatGLM3虛擬環(huán)境下安裝依賴(4)PyTorch驗證或重裝1.ChatGLM3運行環(huán)境安裝2.下載ChatGLM3-6B模型文件本課件是可編輯的正常PPT課件3.4.2應用開發(fā)開發(fā)一個最簡單大語言模型推理應用,實現(xiàn)輸入問題,由大模型給出推理結果本課件是可編輯的正常PPT課件2.4.3安裝CUDA從CUDAToolkitArchive找到與推理卡驅動相匹配的CUDA版本,下載后安裝。安裝完成后,在命令行用“nvcc-V”命令測試是否安裝成功。本課件是可編輯的正常PPT課件3.4.3功能演示本課件是可編輯的正常PPT課件小結開發(fā)環(huán)境搭建原理學習大語言模型應用基礎實驗步驟本課件是可編輯的正常PPT課件人工智能大語言模型應用教程模塊4GLM4應用與微調本課件是可編輯的正常PPT課件學習

目標

理解微調的概念;

理解掌握Transformer模型的參數(shù);

了解大語言模型常用微調方法的原理,包括全量微調FFT、基于人類反饋的強化學習微調RLHF、P-Tuning和大語言模型的低秩適配LoRA;

會安裝和部署GLM4的開發(fā)環(huán)境;

掌握大語言模型微調語料的整理方法,能夠按要求整理微調語料;

能夠運用LoRA微調方法進行大語言模型的訓練;

能夠運用P-tuningV2微調方法進行大語言模型的訓練;

培養(yǎng)數(shù)據(jù)安全意識,培養(yǎng)遵守法律、愛崗敬業(yè)意識;

養(yǎng)成規(guī)范編寫代碼的習慣,培養(yǎng)代碼調試能力;

培養(yǎng)自主學習和分析解決問題的能力。本課件是可編輯的正常PPT課件4.2大語言模型概述設計目標開發(fā)環(huán)境原理學習實驗步驟4.34.44.1本課件是可編輯的正常PPT課件4.1設計目標本課件是可編輯的正常PPT課件大語言模型(LLM)由大規(guī)模的參數(shù)(權重)組成,這些參數(shù)用于表示模型學習到的語言知識和規(guī)律。在深度學習中,參數(shù)通常是模型中可調整的變量,它們的值通過在數(shù)據(jù)上訓練進行學習和優(yōu)化。大語言模型的參數(shù)數(shù)量通常與模型的規(guī)模和復雜度相關,更多的參數(shù)通常意味著模型可以學習到更多復雜的語言特征和模式。設計目標本課件是可編輯的正常PPT課件4.2開發(fā)環(huán)境本課件是可編輯的正常PPT課件開發(fā)環(huán)境硬件:服務器、推理卡(NVIDIA16G顯存以上)軟件:Python、大語言模型GLM-4-9B-Chat本課件是可編輯的正常PPT課件4.3原理學習本課件是可編輯的正常PPT課件4.3.1大語言模型參數(shù)目前的大語言模型大部分都基于Transformer架構使用自注意力機制顯著提高深度學習NLP模型的性能Transformer首次在論文《Attentionisallyouneed》中出現(xiàn),由Google翻譯團隊發(fā)明。本課件是可編輯的正常PPT課件4.3.1大語言模型參數(shù)大語言模型參數(shù)1.層數(shù)(num_layers)指模型中有多少層。每一層都會對輸入數(shù)據(jù)進行不同的處理,產生不同的特征,最后通過一個或多個輸出層產生最終的輸出。5.損失函數(shù)(loss_fn)指在訓練過程中使用的損失函數(shù),可以用來評估模型的性能,并指導模型的訓練過程。4.激活函數(shù)(activation_fn)指在每層神經(jīng)網(wǎng)絡中使用的激活函數(shù)2.每層參數(shù)(params)指每層神經(jīng)網(wǎng)絡中的參數(shù),包括激活函數(shù)、權重等。這些參數(shù)是在模型訓練過程中需要學習的,通過反向傳播算法來更新。3.嵌入層(embedding_dim)識別句子成分及其語法關系和句法結構。本課件是可編輯的正常PPT課件大語言模型參數(shù)6.采樣層(sampling_strategy)指采樣數(shù)據(jù)的方式,如Cross-EntropyLoss、SmoothL1Loss等??梢詭椭P透玫胤夯?,避免過擬合。10.學習率(learning_rate)指在模型訓練過程中使用的學習率,用于控制梯度的更新速度。9.激活函數(shù)參數(shù)(activation_param)指每層激活函數(shù)的參數(shù)值,如ReLU的參數(shù)值為0.7。這些參數(shù)是在模型訓練過程中需要學習的,通過反向傳播算法來更新。7.初始化(init_value)指對層權重的初始值,如隨機初始化、Xavier初始化等。這些初始值在模型訓練過程中也會不斷更新,以反映數(shù)據(jù)分布的變化。8.權重共享(weight_sharing)指不同層之間權重共享的方式,如完全共享、部分共享等??梢杂行p少模型的參數(shù)量,提高模型的訓練效率。4.3.1大語言模型參數(shù)本課件是可編輯的正常PPT課件4.3.2微調方法對整個預訓練模型進行微調的方法,調整的范圍包括所有的模型參數(shù)。預訓練模型的所有層和參數(shù)都可能會被更新和優(yōu)化,以適應新加入的語料。適用于微調任務和預訓練模型之間存在很大差異的情況需要較大的算力資源和時間,但可以獲得比較好的效果。1.全量微調FFT(FullFineTuning)本課件是可編輯的正常PPT課件4.3.2微調方法RLHF是基于人類反饋對大語言模型進行強化學習,其主要特點是把人類的反饋,通過強化學習的方式引入到對大模型的微調中去,讓大模型生成的結果,更加符合人類的期望。RLHF是ChatGPT模型訓練的手段。RLHF01監(jiān)督微調(SFT)02獎勵模型微調(RW)03RLHF訓練使用人工精選的問題與答案,微調預訓練的語言模型,形成多個預選模型。用多個模型(初始模型、finetune模型)給出問題的多個回答,然后人工給這些問答按一些標準(可讀性、無害、正確性)進行排序,訓練一個獎勵模型/偏好模型來打分(rewardmodel)利用ProximalPolicyOptimization(PPO)

算法,根據(jù)RW模型的獎勵反饋進一步微調SFT模型2.基于人類反饋的強化學習微調RLHF本課件是可編輯的正常PPT課件4.3.2微調方法P-Tuningv2是GLM模型專有的微調方式。Prompttuning僅使用凍結語言模型調整連續(xù)提示(Prompt),減少訓練時的每個任務存儲和內存使用量,對于正常大小的預訓練模型效果不佳。P-Tuningv2提出了適當優(yōu)化的即時調整可以在各種規(guī)模的模型中普遍有效,優(yōu)化的提示調整策略在中小型模型和序列標記上實現(xiàn)了與微調相當?shù)男阅堋?.P-Tuning(PromptTuning)本課件是可編輯的正常PPT課件4.3.2微調方法LoRA的基本原理是凍結預訓練好的模型權重參數(shù)在凍結原模型參數(shù)的情況下,通過往模型中加入額外的網(wǎng)絡層,并只訓練這些新增的網(wǎng)絡層參數(shù)。不僅微調的成本顯著下降,還能獲得和全模型參數(shù)參與微調類似的效果。4.大語言模型的低秩適配LoRA本課件是可編輯的正常PPT課件4.4實驗步驟本課件是可編輯的正常PPT課件4.4.1環(huán)境安裝#下載源碼gitclone/git-cloner/gpt-course#切換目錄cdgpt-course/chapter04#創(chuàng)建虛擬環(huán)境condacreate-nglm-4python=3.10-y#激活虛擬環(huán)境condaactivateglm-4#安裝依賴庫pipinstall-rrequirements.txt\-i/pypi/simple#驗證PyTorchpython-c"importtorch;print(torch.cuda.is_available())"本課件是可編輯的正常PPT課件4.4.2模型下載#模型下載腳本從首頁下載#鏈接為/model_download.py#linux下使用wget命令下載,Windows下直接在瀏覽器打開鏈接下載wget/model_download.py#從下載glm-4-9b-chat模型文件pythonmodel_download.py--e--repo_idTHUDM/glm-4-9b-chat\--tokenYPY8KHDQ2NAHQ2SG#下載后的文件在./dataroot/models/THUDM/glm-4-9b-chat目錄下本課件是可編輯的正常PPT課件4.4.3推理測試#啟動推理服務MODEL_PATH=dataroot/models/THUDM/glm-4-9b-chat\pythonweb_demo_int8.py#驗證打開瀏覽器,訪問:http://服務器IP:8000本課件是可編輯的正常PPT課件4.4.4語料準備1.原始語料整理2.微調語料格式要求3.語料格式轉換本課件是可編輯的正常PPT課件4.4.5微調過程1.微調所需文件2.LORA微調3.微調過程注意事項4.驗證微調結果5.P-tuningv2微調本課件是可編輯的正常PPT課件小結開發(fā)環(huán)境搭建原理學習GLM4應用與微調實驗步驟本課件是可編輯的正常PPT課件人工智能大語言模型應用教程模塊5LLama3應用與微調本課件是可編輯的正常PPT課件學習

目標

了解LLama3大語言模型;

掌握LLama3的兩種微調方法:監(jiān)督微調和llama-recipes微調;

掌握LLama3大語言模型的部署方法,會搭建LLama3大語言模型應用環(huán)境;

能按要求準備LLama3微調語料;

掌握LLama3大語言模型微調方法;

能編寫程序實現(xiàn)監(jiān)督微調和llama-recipes微調;

了解與人工智能相關的法律法規(guī),培養(yǎng)倫理和法律意識;

樹立數(shù)據(jù)規(guī)范意識,按規(guī)范格式準備語料;自主查閱相關資料,提升信息檢索能力和自學能力。本課件是可編輯的正常PPT課件5.2大語言模型概述設計目標開發(fā)環(huán)境原理學習實驗步驟5.35.45.1本課件是可編輯的正常PPT課件5.1設計目標本課件是可編輯的正常PPT課件LLama是在ChatGPT發(fā)布后,由Meta發(fā)布的開源免費商用的大語言模型。通過對LLama3應用的全流程學習,掌握基于Transformer的LLama3大語言模型基本原理和應用過程。設計目標本課件是可編輯的正常PPT課件5.2開發(fā)環(huán)境本課件是可編輯的正常PPT課件開發(fā)環(huán)境

硬件:服務器、NVIDIA16G顯存

軟件:Python、大語言模型Meta-Llama-3.1-8B本課件是可編輯的正常PPT課件5.3原理學習本課件是可編

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論