




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能
——語音識別技術(shù)12人工智能
——語音識別技術(shù)12什么是語音識別技術(shù)?
與機器進行語音交流,讓機器明白你說什么,這是人們長期以來夢寐以求的事情。語音識別技術(shù)就是讓機器通過識別和理解過程把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或命令的高技術(shù)。語音識別技術(shù)主要包括特征提取技術(shù)、模式匹配準(zhǔn)則及模型訓(xùn)練技術(shù)三個方面。語音識別技術(shù)車聯(lián)網(wǎng)也得到了充分的引用,例如在翼卡車聯(lián)網(wǎng)中,只需按一鍵通客服人員口述即可設(shè)置目的地直接導(dǎo)航,安全、便捷。21/6/2023什么是語音識別技術(shù)?與機器進行語音交流,讓機器明白兩款語音機器人:SiriCortana31/6/2023兩款語音機器人:SiriCortana31/6/2023語音識別的實現(xiàn)(1)首先,我們知道聲音實際上是一種波。常見的mp3、wmv等格式都是壓縮格式,必須轉(zhuǎn)成非壓縮的純波形文件來處理,比如WindowsPCM文件,也就是俗稱的wav文件。wav文件里存儲的除了一個文件頭以外,就是聲音波形的一個個點了。下圖是一個波形的示例。41/6/2023語音識別的實現(xiàn)(1)首先,我們知道聲音實際上是一種波。常見的語音識別的實現(xiàn)(2)在開始語音識別之前,有時需要把首尾端的靜音切除,降低對后續(xù)步驟造成的干擾。這個靜音切除的操作一般稱為VAD,需要用到信號處理的一些技術(shù)。要對聲音進行分析,需要對聲音分幀,也就是把聲音切開成一小段一小段,每小段稱為一幀。分幀操作一般不是簡單的切開,而是使用移動窗函數(shù)來實現(xiàn),這里不詳述。幀與幀之間一般是有交疊的,就像下圖這樣:51/6/2023語音識別的實現(xiàn)(2)在開始語音識別之前,有時需要把首尾端的靜語音識別的實現(xiàn)(3)圖中,每幀的長度為25毫秒,每兩幀之間有25-10=15毫秒的交疊。我們稱為以幀長25ms、幀移10ms分幀。分幀后,語音就變成了很多小段。但波形在時域上幾乎沒有描述能力,因此必須將波形作變換。常見的一種變換方法是提取MFCC特征,根據(jù)人耳的生理特性,把每一幀波形變成一個多維向量,可以簡單地理解為這個向量包含了這幀語音的內(nèi)容信息。這個過程叫做聲學(xué)特征提取。實際應(yīng)用中,這一步有很多細(xì)節(jié),聲學(xué)特征也不止有MFCC這一種,具體這里不講。至此,聲音就成了一個12行(假設(shè)聲學(xué)特征是12維)、N列的一個矩陣,稱之為觀察序列,這里N為總幀數(shù)。觀察序列如下圖所示,圖中,每一幀都用一個12維的向量表示,色塊的顏色深淺表示向量值的大小。61/6/2023語音識別的實現(xiàn)(3)圖中,每幀的長度為25毫秒,每兩幀之間有語音識別的實現(xiàn)(4)接下來就要介紹怎樣把這個矩陣變成文本了。首先要介紹兩個概念:音素:單詞的發(fā)音由音素構(gòu)成。對英語,一種常用的音素集是卡內(nèi)基梅隆大學(xué)的一套由39個音素構(gòu)成的音素集,參見TheCMUPronouncingDictionary。漢語一般直接用全部聲母和韻母作為音素集,另外漢語識別還分有調(diào)無調(diào),不詳述。狀態(tài):這里理解成比音素更細(xì)致的語音單位就行啦。通常把一個音素劃分成3個狀態(tài)。語音識別是怎么工作的呢?實際上一點都不神秘,無非是:第一步,把幀識別成狀態(tài)(難點);第二步,把狀態(tài)組合成音素;第三步,把音素組合成單詞。71/6/2023語音識別的實現(xiàn)(4)接下來就要介紹怎樣把這個矩陣變成文本了。語音識別的實現(xiàn)(5)圖中,每個小豎條代表一幀,若干幀語音對應(yīng)一個狀態(tài),每三個狀態(tài)組合成一個音素,若干個音素組合成一個單詞。也就是說,只要知道每幀語音對應(yīng)哪個狀態(tài)了,語音識別的結(jié)果也就出來了。圖中,每個小豎條代表一幀,若干幀語音對應(yīng)一個狀態(tài),每三個狀態(tài)組合成一個音素,若干個音素組合成一個單詞。也就是說,只要知道每幀語音對應(yīng)哪個狀態(tài)了,語音識別的結(jié)果也就出來了。那每幀音素對應(yīng)哪個狀態(tài)呢?有個容易想到的辦法,看某幀對應(yīng)哪個狀態(tài)的概率最大,那這幀就屬于哪個狀態(tài)。比如下面的示意圖,這幀對應(yīng)S3狀態(tài)的概率最大,因此就讓這幀屬于S3狀態(tài)。81/6/2023語音識別的實現(xiàn)(5)圖中,每個小豎條代表一幀,若干幀語音對應(yīng)語音識別的實現(xiàn)(6)那這些用到的概率從哪里讀取呢?有個叫“聲學(xué)模型”的東西,里面存了一大堆參數(shù),通過這些參數(shù),就可以知道幀和狀態(tài)對應(yīng)的概率。獲取這一大堆參數(shù)的方法叫做“訓(xùn)練”,需要使用巨大數(shù)量的語音數(shù)據(jù),訓(xùn)練的方法比較繁瑣,這里不講。但這樣做有一個問題:每一幀都會得到一個狀態(tài)號,最后整個語音就會得到一堆亂七八糟的狀態(tài)號,相鄰兩幀間的狀態(tài)號基本都不相同。假設(shè)語音有1000幀,每幀對應(yīng)1個狀態(tài),每3個狀態(tài)組合成一個音素,那么大概會組合成300個音素,但這段語音其實根本沒有這么多音素。如果真這么做,得到的狀態(tài)號可能根本無法組合成音素。實際上,相鄰幀的狀態(tài)應(yīng)該大多數(shù)都是相同的才合理,因為每幀很短。解決這個問題的常用方法就是使用隱馬爾可夫模型(HiddenMarkovModel,HMM)。這東西聽起來好像很高深的樣子,實際上用起來很簡單:第一步,構(gòu)建一個狀態(tài)網(wǎng)絡(luò)。第二步,從狀態(tài)網(wǎng)絡(luò)中尋找與聲音最匹配的路徑。
這樣就把結(jié)果限制在預(yù)先設(shè)定的網(wǎng)絡(luò)中,避免了剛才說到的問題,當(dāng)然也帶來一個局限,比如你設(shè)定的網(wǎng)絡(luò)里只包含了“今天晴天”和“今天下雨”兩個句子的狀態(tài)路徑,那么不管說些什么,識別出的結(jié)果必然是這兩個句子中的一句。91/6/2023語音識別的實現(xiàn)(6)那這些用到的概率從哪里讀取呢?有個叫“聲語音識別的實現(xiàn)(7)那如果想識別任意文本呢?把這個網(wǎng)絡(luò)搭得足夠大,包含任意文本的路徑就可以了。但這個網(wǎng)絡(luò)越大,想要達到比較好的識別準(zhǔn)確率就越難。所以要根據(jù)實際任務(wù)的需求,合理選擇網(wǎng)絡(luò)大小和結(jié)構(gòu)。搭建狀態(tài)網(wǎng)絡(luò),是由單詞級網(wǎng)絡(luò)展開成音素網(wǎng)絡(luò),再展開成狀態(tài)網(wǎng)絡(luò)。語音識別過程其實就是在狀態(tài)網(wǎng)絡(luò)中搜索一條最佳路徑,語音對應(yīng)這條路徑的概率最大,這稱之為“解碼”。路徑搜索的算法是一種動態(tài)規(guī)劃剪枝的算法,稱之為Viterbi算法,用于尋找全局最優(yōu)路徑。101/6/2023語音識別的實現(xiàn)(7)那如果想識別任意文本呢?把這個網(wǎng)絡(luò)搭得足語音識別的實現(xiàn)(8)這里所說的累積概率,由三部分構(gòu)成,分別是:觀察概率:每幀和每個狀態(tài)對應(yīng)的概率轉(zhuǎn)移概率:每個狀態(tài)轉(zhuǎn)移到自身或轉(zhuǎn)移到下個狀態(tài)的概率語言概率:根據(jù)語言統(tǒng)計規(guī)律得到的概率其中,前兩種概率從聲學(xué)模型中獲取,最后一種概率從語言模型中獲取。語言模型是使用大量的文本訓(xùn)練出來的,可以利用某門語言本身的統(tǒng)計規(guī)律來幫助提升識別正確率。語言模型很重要,如果不使用語言模型,當(dāng)狀態(tài)網(wǎng)絡(luò)較大時,識別出的結(jié)果基本是一團亂麻。111/6/2023語音識別的實現(xiàn)(8)這里所說的累積概率,由三部分構(gòu)成,分別是121/6/2023121/6/2023聲學(xué)模型
聲學(xué)模型是把語音轉(zhuǎn)化為聲學(xué)表示的輸出,即找到給定的語音源于某個聲學(xué)符號的概率。對于聲學(xué)符號,最直接的表達方式是詞組,但是在訓(xùn)練數(shù)據(jù)量不充分的情況下,很難得到一個好的模型。詞組是由多個音素的連續(xù)發(fā)音構(gòu)成,另外,音素不但有清晰的定義而且數(shù)量有限。因而,在語音識別中,通常把聲學(xué)模型轉(zhuǎn)換成了一個語音序列到發(fā)音序列(音素)的模型和一個發(fā)音序列到輸出文字序列的字典。
需要注意的是,由于人類發(fā)聲器官運動的連續(xù)性,以及某些語言中特定的拼讀習(xí)慣,會導(dǎo)致音素的發(fā)音受到前后音素的影響。為了對不同語境的音素加以區(qū)分,通常使用能夠考慮前后各一個音素的三音子作為建模單元。
另外,在聲學(xué)模型中,可以把三音子分解為更小的顆?!獱顟B(tài),通常一個三音子對應(yīng)3個狀態(tài),但是這會引起建模參數(shù)的指數(shù)增長,常用的解決方案是使用決策樹先對這些三音子模型進行聚類,然后使用聚類的結(jié)果作為分類目標(biāo)。最常用的聲學(xué)建模方式是隱馬爾科夫模型(HMM)。在HMM下,狀態(tài)是隱變量,語音是觀測值,狀態(tài)之間的跳轉(zhuǎn)符合馬爾科夫假設(shè)。其中,狀態(tài)轉(zhuǎn)移概率密度多采用幾何分布建模,而擬合隱變量到觀測值的觀測概率的模型常用高斯混合模型(GMM)。131/6/2023聲學(xué)模型
聲學(xué)模型是把語音轉(zhuǎn)化為聲學(xué)表示的輸出,即找到給定的傳統(tǒng)模型GMM-HMM的算法語音識別過程就是輸入一段語音信號,找到一串文字(字或詞)序列的過程,語音輸入O
=o1,o2,o3,...,ot
對應(yīng)的標(biāo)注W
=w1,w2,w3,...,wn
這個過程一般用概率來表示,用O表示語音信號,用W表示文字序列,則是要解決下面這個問題:由貝葉斯公式141/6/2023傳統(tǒng)模型GMM-HMM的算法語音識別過程就是輸入一段語音信號展開,可得由于P(O|W
)P(W
)/P(O)是對每個句子進行計算的,而對每個句子來說P(O)是不變的,所以可以改寫成如下其中P(O|W
)稱做觀測最大釋然,由聲學(xué)模型計算可得其中P(w)稱做先驗概率,由語言模型模型計算可得
綜上所述,語音識別就是解碼(decoding)過程,如下圖所示:151/6/2023展開,可得由于P(O|W
)P(W
)/P(O)是對每個句聲學(xué)模型的任務(wù)是計算P(O|W
),即給定文字之后發(fā)出這段語音的概率(最后利用貝葉斯,求P(O|W
)是使用)。161/6/2023聲學(xué)模型的任務(wù)是計算P(O|W
),即給定文字之后發(fā)出這段Thanks!172Thanks!172人工智能
——語音識別技術(shù)182人工智能
——語音識別技術(shù)12什么是語音識別技術(shù)?
與機器進行語音交流,讓機器明白你說什么,這是人們長期以來夢寐以求的事情。語音識別技術(shù)就是讓機器通過識別和理解過程把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或命令的高技術(shù)。語音識別技術(shù)主要包括特征提取技術(shù)、模式匹配準(zhǔn)則及模型訓(xùn)練技術(shù)三個方面。語音識別技術(shù)車聯(lián)網(wǎng)也得到了充分的引用,例如在翼卡車聯(lián)網(wǎng)中,只需按一鍵通客服人員口述即可設(shè)置目的地直接導(dǎo)航,安全、便捷。191/6/2023什么是語音識別技術(shù)?與機器進行語音交流,讓機器明白兩款語音機器人:SiriCortana201/6/2023兩款語音機器人:SiriCortana31/6/2023語音識別的實現(xiàn)(1)首先,我們知道聲音實際上是一種波。常見的mp3、wmv等格式都是壓縮格式,必須轉(zhuǎn)成非壓縮的純波形文件來處理,比如WindowsPCM文件,也就是俗稱的wav文件。wav文件里存儲的除了一個文件頭以外,就是聲音波形的一個個點了。下圖是一個波形的示例。211/6/2023語音識別的實現(xiàn)(1)首先,我們知道聲音實際上是一種波。常見的語音識別的實現(xiàn)(2)在開始語音識別之前,有時需要把首尾端的靜音切除,降低對后續(xù)步驟造成的干擾。這個靜音切除的操作一般稱為VAD,需要用到信號處理的一些技術(shù)。要對聲音進行分析,需要對聲音分幀,也就是把聲音切開成一小段一小段,每小段稱為一幀。分幀操作一般不是簡單的切開,而是使用移動窗函數(shù)來實現(xiàn),這里不詳述。幀與幀之間一般是有交疊的,就像下圖這樣:221/6/2023語音識別的實現(xiàn)(2)在開始語音識別之前,有時需要把首尾端的靜語音識別的實現(xiàn)(3)圖中,每幀的長度為25毫秒,每兩幀之間有25-10=15毫秒的交疊。我們稱為以幀長25ms、幀移10ms分幀。分幀后,語音就變成了很多小段。但波形在時域上幾乎沒有描述能力,因此必須將波形作變換。常見的一種變換方法是提取MFCC特征,根據(jù)人耳的生理特性,把每一幀波形變成一個多維向量,可以簡單地理解為這個向量包含了這幀語音的內(nèi)容信息。這個過程叫做聲學(xué)特征提取。實際應(yīng)用中,這一步有很多細(xì)節(jié),聲學(xué)特征也不止有MFCC這一種,具體這里不講。至此,聲音就成了一個12行(假設(shè)聲學(xué)特征是12維)、N列的一個矩陣,稱之為觀察序列,這里N為總幀數(shù)。觀察序列如下圖所示,圖中,每一幀都用一個12維的向量表示,色塊的顏色深淺表示向量值的大小。231/6/2023語音識別的實現(xiàn)(3)圖中,每幀的長度為25毫秒,每兩幀之間有語音識別的實現(xiàn)(4)接下來就要介紹怎樣把這個矩陣變成文本了。首先要介紹兩個概念:音素:單詞的發(fā)音由音素構(gòu)成。對英語,一種常用的音素集是卡內(nèi)基梅隆大學(xué)的一套由39個音素構(gòu)成的音素集,參見TheCMUPronouncingDictionary。漢語一般直接用全部聲母和韻母作為音素集,另外漢語識別還分有調(diào)無調(diào),不詳述。狀態(tài):這里理解成比音素更細(xì)致的語音單位就行啦。通常把一個音素劃分成3個狀態(tài)。語音識別是怎么工作的呢?實際上一點都不神秘,無非是:第一步,把幀識別成狀態(tài)(難點);第二步,把狀態(tài)組合成音素;第三步,把音素組合成單詞。241/6/2023語音識別的實現(xiàn)(4)接下來就要介紹怎樣把這個矩陣變成文本了。語音識別的實現(xiàn)(5)圖中,每個小豎條代表一幀,若干幀語音對應(yīng)一個狀態(tài),每三個狀態(tài)組合成一個音素,若干個音素組合成一個單詞。也就是說,只要知道每幀語音對應(yīng)哪個狀態(tài)了,語音識別的結(jié)果也就出來了。圖中,每個小豎條代表一幀,若干幀語音對應(yīng)一個狀態(tài),每三個狀態(tài)組合成一個音素,若干個音素組合成一個單詞。也就是說,只要知道每幀語音對應(yīng)哪個狀態(tài)了,語音識別的結(jié)果也就出來了。那每幀音素對應(yīng)哪個狀態(tài)呢?有個容易想到的辦法,看某幀對應(yīng)哪個狀態(tài)的概率最大,那這幀就屬于哪個狀態(tài)。比如下面的示意圖,這幀對應(yīng)S3狀態(tài)的概率最大,因此就讓這幀屬于S3狀態(tài)。251/6/2023語音識別的實現(xiàn)(5)圖中,每個小豎條代表一幀,若干幀語音對應(yīng)語音識別的實現(xiàn)(6)那這些用到的概率從哪里讀取呢?有個叫“聲學(xué)模型”的東西,里面存了一大堆參數(shù),通過這些參數(shù),就可以知道幀和狀態(tài)對應(yīng)的概率。獲取這一大堆參數(shù)的方法叫做“訓(xùn)練”,需要使用巨大數(shù)量的語音數(shù)據(jù),訓(xùn)練的方法比較繁瑣,這里不講。但這樣做有一個問題:每一幀都會得到一個狀態(tài)號,最后整個語音就會得到一堆亂七八糟的狀態(tài)號,相鄰兩幀間的狀態(tài)號基本都不相同。假設(shè)語音有1000幀,每幀對應(yīng)1個狀態(tài),每3個狀態(tài)組合成一個音素,那么大概會組合成300個音素,但這段語音其實根本沒有這么多音素。如果真這么做,得到的狀態(tài)號可能根本無法組合成音素。實際上,相鄰幀的狀態(tài)應(yīng)該大多數(shù)都是相同的才合理,因為每幀很短。解決這個問題的常用方法就是使用隱馬爾可夫模型(HiddenMarkovModel,HMM)。這東西聽起來好像很高深的樣子,實際上用起來很簡單:第一步,構(gòu)建一個狀態(tài)網(wǎng)絡(luò)。第二步,從狀態(tài)網(wǎng)絡(luò)中尋找與聲音最匹配的路徑。
這樣就把結(jié)果限制在預(yù)先設(shè)定的網(wǎng)絡(luò)中,避免了剛才說到的問題,當(dāng)然也帶來一個局限,比如你設(shè)定的網(wǎng)絡(luò)里只包含了“今天晴天”和“今天下雨”兩個句子的狀態(tài)路徑,那么不管說些什么,識別出的結(jié)果必然是這兩個句子中的一句。261/6/2023語音識別的實現(xiàn)(6)那這些用到的概率從哪里讀取呢?有個叫“聲語音識別的實現(xiàn)(7)那如果想識別任意文本呢?把這個網(wǎng)絡(luò)搭得足夠大,包含任意文本的路徑就可以了。但這個網(wǎng)絡(luò)越大,想要達到比較好的識別準(zhǔn)確率就越難。所以要根據(jù)實際任務(wù)的需求,合理選擇網(wǎng)絡(luò)大小和結(jié)構(gòu)。搭建狀態(tài)網(wǎng)絡(luò),是由單詞級網(wǎng)絡(luò)展開成音素網(wǎng)絡(luò),再展開成狀態(tài)網(wǎng)絡(luò)。語音識別過程其實就是在狀態(tài)網(wǎng)絡(luò)中搜索一條最佳路徑,語音對應(yīng)這條路徑的概率最大,這稱之為“解碼”。路徑搜索的算法是一種動態(tài)規(guī)劃剪枝的算法,稱之為Viterbi算法,用于尋找全局最優(yōu)路徑。271/6/2023語音識別的實現(xiàn)(7)那如果想識別任意文本呢?把這個網(wǎng)絡(luò)搭得足語音識別的實現(xiàn)(8)這里所說的累積概率,由三部分構(gòu)成,分別是:觀察概率:每幀和每個狀態(tài)對應(yīng)的概率轉(zhuǎn)移概率:每個狀態(tài)轉(zhuǎn)移到自身或轉(zhuǎn)移到下個狀態(tài)的概率語言概率:根據(jù)語言統(tǒng)計規(guī)律得到的概率其中,前兩種概率從聲學(xué)模型中獲取,最后一種概率從語言模型中獲取。語言模型是使用大量的文本訓(xùn)練出來的,可以利用某門語言本身的統(tǒng)計規(guī)律來幫助提升識別正確率。語言模型很重要,如果不使用語言模型,當(dāng)狀態(tài)網(wǎng)絡(luò)較大時,識別出的結(jié)果基本是一團亂麻。281/6/2023語音識別的實現(xiàn)(8)這里所說的累積概率,由三部分構(gòu)成,分別是291/6/2023121/6/2023聲學(xué)模型
聲學(xué)模型是把語音轉(zhuǎn)化為聲學(xué)表示的輸出,即找到給定的語音源于某個聲學(xué)符號的概率。對于聲學(xué)符號,最直接的表達方式是詞組,但是在訓(xùn)練數(shù)據(jù)量不充分的情況下,很難得到一個好的模型。詞組是由多個音素的連續(xù)發(fā)音構(gòu)成,另外,音素不但有清晰的定義而且數(shù)量有限。因而,在語音識別中,通常把聲學(xué)模型轉(zhuǎn)換成了一個語音序列到發(fā)音序列(音素)的模型和一個發(fā)音序列到輸出文字序列的字典。
需要注意的是,由于人類發(fā)聲器官運動的連續(xù)性,以及某些語言中特定的拼讀習(xí)慣,會導(dǎo)致音素的發(fā)音受到前后音素的影響。為了對不同語境的音素加以區(qū)分,通常使用能夠考慮前后各一個音素的三音子作為建模單元。
另外,在聲學(xué)模型中,可以把三音子分解為更小的顆粒—狀態(tài),通常一個三音子對應(yīng)3個
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年粉體食品物料殺菌設(shè)備項目建議書
- 第二章 問題研究 從市中心到郊區(qū)你選擇住在哪里-教學(xué)設(shè)計 2023-2024學(xué)年高一下學(xué)期地理人教版(2019)必修第二冊
- 2025年無機礦物填充塑料合作協(xié)議書
- 第六課 實現(xiàn)人生的價值 教學(xué)設(shè)計-2023-2024學(xué)年高中政治統(tǒng)編版必修四哲學(xué)與文化
- 2025年幼兒園小班游戲《識字游戲》標(biāo)準(zhǔn)教案
- Unit 1 Animal Friends第一課時 Section A 1a~1d 教學(xué)設(shè)計- 2024-2025學(xué)年人教版七年級英語下冊
- 2025年度股東私下分紅及利潤分配管理協(xié)議書
- 二零二五年度美容美發(fā)店店面勞務(wù)用工服務(wù)協(xié)議
- 二零二五年度農(nóng)業(yè)科技項目付款合同
- 二零二五年度智能空調(diào)拆除與安全責(zé)任承諾書
- 人教版(2025新版)七年級下冊數(shù)學(xué)第七章 相交線與平行線 單元測試卷(含答案)
- 樂理知識考試題庫130題(含答案)
- 前言 馬克思主義中國化時代化的歷史進程與理論成果
- 融資租賃租金計算表
- 數(shù)據(jù)結(jié)構(gòu)英文教學(xué)課件:Chapter 5 Recursion
- 《中國—東盟自由貿(mào)易區(qū)概論》新版
- 棕色偵探推理劇本殺活動方案項目介紹ppt模板
- 降低鉆孔灌注樁混凝土充盈系數(shù)QC
- 華中數(shù)控車床編程及操作PPT課件
- 趣味歷史(課堂PPT)
- 供應(yīng)鏈供應(yīng)鏈管理
評論
0/150
提交評論