![音樂信息檢索技術(shù)音樂與人工智能的融合_第1頁](http://file4.renrendoc.com/view/f9165119181e7363cb4ae0bd5704f74e/f9165119181e7363cb4ae0bd5704f74e1.gif)
![音樂信息檢索技術(shù)音樂與人工智能的融合_第2頁](http://file4.renrendoc.com/view/f9165119181e7363cb4ae0bd5704f74e/f9165119181e7363cb4ae0bd5704f74e2.gif)
![音樂信息檢索技術(shù)音樂與人工智能的融合_第3頁](http://file4.renrendoc.com/view/f9165119181e7363cb4ae0bd5704f74e/f9165119181e7363cb4ae0bd5704f74e3.gif)
![音樂信息檢索技術(shù)音樂與人工智能的融合_第4頁](http://file4.renrendoc.com/view/f9165119181e7363cb4ae0bd5704f74e/f9165119181e7363cb4ae0bd5704f74e4.gif)
![音樂信息檢索技術(shù)音樂與人工智能的融合_第5頁](http://file4.renrendoc.com/view/f9165119181e7363cb4ae0bd5704f74e/f9165119181e7363cb4ae0bd5704f74e5.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
音樂信息檢索技術(shù):音樂與人工智能的融合李偉;高智輝【摘要】音樂科技是一個(gè)典型的交叉學(xué)科領(lǐng)域,分為藝術(shù)部分和科技部分.近年來興起的音樂信息檢索技術(shù)(MIR)是音樂科技領(lǐng)域的重要組成部分.MIR領(lǐng)域包含數(shù)十個(gè)研究課題,可按照與各音樂要素的密切程度分為核心層和應(yīng)用層.當(dāng)前的MIR技術(shù)發(fā)展仍然面臨諸多困難,但隨著藝術(shù)與科技的不斷融合,必將迎來其發(fā)展的輝煌時(shí)期.【期刊名稱】《藝術(shù)探索》【年(卷),期】2018(032)005【總頁數(shù)】5頁(P112-116)【關(guān)鍵詞】人工智能;音樂信息檢索技術(shù);音樂科技【作者】李偉;高智輝【作者單位】復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,上海201203;復(fù)旦大學(xué)信息科學(xué)與工程學(xué)院,上海200433【正文語種】中文[中圖分類】J61一、音樂科技概況早在20世紀(jì)50年代,計(jì)算機(jī)剛剛產(chǎn)生,美國的一位化學(xué)博士就開始嘗試運(yùn)用計(jì)算機(jī)處理音樂。隨后幾十年,歐美各國相繼建立了多個(gè)大型音樂科技研究機(jī)構(gòu),如1975年建立的美國斯坦福大學(xué)的音樂及聲學(xué)計(jì)算機(jī)研究中心(CenterforComputerResearchinMusicandAcoustics,CCRMA)、1977年建立的法國巴黎的聲學(xué)與音樂研究與協(xié)調(diào)研究所(InstituteforResearchandCoordinationAcoustic/Music,IRCAM)、1994年建立的西班牙巴塞羅那龐培法布拉(UPF)大學(xué)的音樂科技研究組(MusicTechnologyGroup,MTG)、2001年建立的英國倫敦女王大學(xué)數(shù)字音樂研究中心(CentreforDigitalMusic,C4DM)等。此外,在亞洲的日本、中國臺(tái)灣等國家和地區(qū)也有多個(gè)該領(lǐng)域的公司(如雅馬哈)和科研院所。歐洲由于其濃厚的人文和藝術(shù)氣息成了音樂科技的世界中心。圖1音樂科技各領(lǐng)域關(guān)系圖音樂科技是一個(gè)典型的交叉學(xué)科領(lǐng)域,分為藝術(shù)部分和科技部分。(圖1)藝術(shù)部分主要偏向使用各種音頻軟件及硬件進(jìn)行音樂創(chuàng)作,科技部分主要進(jìn)行底層計(jì)算機(jī)技術(shù)的研發(fā),為藝術(shù)創(chuàng)作提供技術(shù)支撐,也叫做聲音與音樂計(jì)算(SoundandMusicComputing,SMC)。SMC主要包括音頻信號(hào)處理(AudioSignalProcessing)及計(jì)算機(jī)聽覺(ComputerAudition,CA),音樂信息檢索技術(shù)(MusicInformationRetrieval,MIR)屬于計(jì)算機(jī)聽覺中專門分析理解音樂內(nèi)容的部分。近20年來,互聯(lián)網(wǎng)上出現(xiàn)了海量的數(shù)字音樂。音頻大數(shù)據(jù)與人工智能(ArticleIntelligence,AI)相結(jié)合,產(chǎn)生了MIR,成為音樂科技領(lǐng)域的重要組成部分。MIR以音樂聲學(xué)為基礎(chǔ),基于音頻信號(hào)處理提取音頻特征,后端大量采用AI中的各種機(jī)器學(xué)習(xí)技術(shù)。目前,MIR已成為一個(gè)很大的科學(xué)研究領(lǐng)域,國內(nèi)外主要的學(xué)術(shù)會(huì)議有ISMIR(音樂信息檢索國際會(huì)議)、ICMC(計(jì)算機(jī)音樂國際會(huì)議)、CSMT(中國聲音與音樂技術(shù)會(huì)議)、ICASSP(聲學(xué)、語言、信號(hào)處理國際會(huì)議)等。二、MIR領(lǐng)域科研情況介紹MIR領(lǐng)域包含數(shù)十個(gè)研究課題,這些課題按照與各音樂要素的密切程度可劃分為核心層MIR研究和應(yīng)用層MIR研究。(圖2)(一)核心層MIR研究音高與旋律(PitchandMelody)[1]1-5音樂中每個(gè)音符都有一定的音高,而音高由聲波的頻率決定。音高檢測(cè)的手段大概分為三種:(1)時(shí)域檢測(cè),即在時(shí)間上對(duì)聲波進(jìn)行分析,具體有過零率法、自相關(guān)法(如YIN算法)、最大似然法、自適應(yīng)濾波器法、超分辨率法等;(2)頻域檢測(cè),如對(duì)信號(hào)進(jìn)行短時(shí)傅里葉變換(STFT),由周期性信號(hào)在基頻整數(shù)倍處有不同峰值的原理得到該時(shí)間段的基頻,從而得到音高;(3)基于聽覺模型檢測(cè),即通過模擬人類感知音高的生理過程,使用耳蝸模型對(duì)每一個(gè)通道進(jìn)行獨(dú)立的自相關(guān)運(yùn)算,綜合所有通道信息得到相對(duì)的音高。旋律是經(jīng)過藝術(shù)構(gòu)思,按照節(jié)奏及和聲形成的反映音樂主旨的音符序列。旋律提取指的是從多聲部/多音音樂(PolyphonicMusic)信號(hào)提取單聲部(Monophonic)旋律的過程,典型方法有音高重要性法、歌聲分離法、數(shù)據(jù)驅(qū)動(dòng)的音符分類法等三種,可應(yīng)用在音樂搜索、抄襲檢測(cè)、歌唱評(píng)價(jià)、作曲家風(fēng)格分析等方面。更進(jìn)一步,音樂識(shí)譜(MusicTranscription)是識(shí)別音樂中每個(gè)時(shí)刻發(fā)聲的各個(gè)音符并形成樂譜的過程。通常首先基于矩陣分解技術(shù)進(jìn)行歌聲和各種伴奏樂器聲音的分離;接下來在各個(gè)音源上尋找每一個(gè)音符的起始點(diǎn)并進(jìn)行分割;隨后進(jìn)行多音高/多基頻(f0)估計(jì),提取每個(gè)音符的基頻,根據(jù)MIDI音符表轉(zhuǎn)換為音符的音名;最后利用音樂領(lǐng)域知識(shí)或規(guī)則進(jìn)行后處理糾錯(cuò)。音樂節(jié)奏(MusicRhythm)[2]159-171音符起始點(diǎn)檢測(cè)(NodeOnsetDetection)的目的是檢測(cè)音樂中某一音符開始的時(shí)間,是各種音樂節(jié)奏分析的預(yù)處理步驟。一個(gè)音符在波形上可以體現(xiàn)為Onset(音符起始點(diǎn))/Attack(音符上升段)/Transient(音符持續(xù)段)/Decay(音符衰減段)等幾個(gè)部分。彈撥類樂器為HardOnset(硬音符起始點(diǎn)),典型算法由子帶分解、檢測(cè)各子帶能量峰值、合并后挑選結(jié)果等幾個(gè)步驟組成;弦樂器吹奏類樂器為SoftOnset(軟音符起始點(diǎn)),可通過檢測(cè)和弦突變點(diǎn)求解。圖2MIR領(lǐng)域包含的研究課題節(jié)拍跟蹤(BeatTracking)是用計(jì)算機(jī)模擬人們?cè)诼犚魳窌r(shí)無意識(shí)地踮腳或拍手現(xiàn)象的過程,是理解音樂節(jié)奏的基礎(chǔ),也是很多MIR任務(wù)的重要步驟。其一般依賴于音符起始點(diǎn)檢測(cè)、打擊樂或其他時(shí)間局域化時(shí)間檢測(cè)。如果音樂偏重抒情沒有打擊樂器或者不明顯,則可采用和弦改變點(diǎn)作為候選節(jié)拍點(diǎn)。速度檢測(cè)(TempoDetection)通常與節(jié)拍跟蹤同時(shí)進(jìn)行,用于判斷音樂進(jìn)行的快慢,通常以BMP(BeatsperMinute)表示。其可以應(yīng)用于音樂情感分析,或者幫助帕金森病人恢復(fù)行走能力。一個(gè)經(jīng)典方法是用帶通濾波器計(jì)算每個(gè)子帶幅度包絡(luò)線,與一組事先定義好的梳狀濾波器卷積,并對(duì)所有子帶上的能量進(jìn)行求和,最高峰值即為速度。拍子檢測(cè)(MeterDetection)、小節(jié)線檢測(cè)(BarLine/MeasureDetection)s強(qiáng)拍估計(jì)(DownbeatEstimation)的技術(shù)路線類似,通常基于節(jié)拍相似性矩陣、節(jié)拍跟蹤和基于音樂知識(shí)的啟發(fā)式規(guī)則。節(jié)奏型檢測(cè)(RhythmicPatternDetection)基于模板匹配方法或者機(jī)器學(xué)習(xí)的節(jié)奏型標(biāo)注,可用于音樂流派分析和音樂教學(xué)等。音樂和聲(MusicHarmony)[3]1280-1289自18世紀(jì)后半葉至今,主調(diào)音樂(Homophony)已經(jīng)逐漸取代了復(fù)調(diào)音樂(Polyphony),而和聲正是主調(diào)音樂最重要的要素之一。和弦識(shí)別(ChordDetection)中最重要的音頻特征為半音類(PCP[PitchClassProfiles],或稱Chroma),即在12個(gè)半音類上與八度無關(guān)的譜能量的聚集。識(shí)別模型有模板匹配、隱形馬爾科夫模型(HiddenMarkovModel,HMM)、條件隨機(jī)場(chǎng)(ConditionalRandomFields,CRF)、支持向量機(jī)(SupportVectorMachine,SVM)、遞歸神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)等。調(diào)檢測(cè)(KeyDetection)通過PCP特征來描述對(duì)調(diào)的感知,還可用調(diào)高分類器平滑減少音高的波動(dòng)。其可用于音樂識(shí)譜、和弦檢測(cè)、音樂感情計(jì)算、音樂結(jié)構(gòu)分析等。歌聲信息處理(SingingInformationProcessing)[4]57-60歌聲檢測(cè)(Vocal/SingingVoiceDetection)是判定整首歌曲中哪些部分是歌聲,哪些部分是純樂器伴奏的過程。一般通過音頻分幀,提取能夠有效區(qū)分歌聲和伴奏的音頻特征(梅爾頻率倒譜系數(shù)[Mel-FrequencyCepstralCoefficients,MFCC]、譜特征、顫音等),然后進(jìn)行機(jī)器學(xué)習(xí)分類,最后使用平滑后處理去除奇異點(diǎn)。歌聲分離(Vocal/SingingVoiceSeparation)是指將歌聲與背景音樂伴奏進(jìn)行分離的過程。對(duì)立體聲錄音,假設(shè)歌聲位于中央信道,可利用聲源的空間差異性來定位和分離;對(duì)單聲道錄音,可采用基于音高推理(Pitch-basedInference)獲得歌聲泛音結(jié)構(gòu),或基于矩陣分解技術(shù),或基于計(jì)算聽覺場(chǎng)景分析CASA(ComputationalAuditorySceneAnalysis)的方法。其可應(yīng)用于在歌手識(shí)別、哼唱/歌唱檢索、卡拉OK伴奏等。歌手識(shí)別(Singer/ArtistIdentification)判斷一個(gè)歌曲是由集合中的哪個(gè)歌手演唱的,框架類似于說話人識(shí)別/聲紋識(shí)別。歌聲與語音之間存在巨大差異,技術(shù)上更困難。其可用于按歌手分類管理大量歌曲、模仿秀。歌唱評(píng)價(jià)(SingingEvaluation)含兩部分?;A(chǔ)評(píng)價(jià)包括計(jì)算兩段歌聲各種音頻特征如音量、音高、節(jié)奏、旋律、顫音等之間的相似度,高級(jí)評(píng)價(jià)包括感情、音域、聲音質(zhì)量、音色辨識(shí)度、歌唱技巧等。歌詞識(shí)別(LyricsRecognition/Transcription)與語音識(shí)別技術(shù)框架類似,區(qū)別在于:歌詞非勻速進(jìn)行且音高變化范圍大;歌唱根據(jù)旋律和節(jié)奏的進(jìn)行、顫音和轉(zhuǎn)音等技巧來控制聲帶的發(fā)聲方式、發(fā)聲時(shí)間和氣息穩(wěn)定性;同一個(gè)人歌唱和說話音色有很大不同;歌詞具有一定藝術(shù)性需要押韻;等等。其可應(yīng)用于歌曲檢索、歌曲分類、歌詞與音頻或口型對(duì)齊等。應(yīng)用層MIR研究音樂搜索(MusicRetrieval)[5]231-236音樂識(shí)別(MusicIdentification)錄制一個(gè)音樂片段作為查詢片段,計(jì)算音頻指紋后與后臺(tái)指紋庫進(jìn)行匹配,將最相似記錄的歌曲名、詞曲作者、演唱者、歌詞等元數(shù)據(jù)返回,其核心是音頻指紋技術(shù)(AudioFingerprinting)。哼唱及歌唱檢索(QuerybyHumming/Singing)錄制一段哼唱或歌唱聲音作為查詢片段,計(jì)算音頻特征后在數(shù)據(jù)庫中進(jìn)行相似性匹配,并按匹配程度高低返回結(jié)果列表,難度比音樂識(shí)別更大。一般使用旋律編碼特征(音高輪廓、音程、音長、音高變化、音長變化)等進(jìn)行旋律匹配,匹配手段有字符串近似匹配、動(dòng)態(tài)時(shí)間規(guī)整、編輯距離、隱形馬爾科夫模型等。[4]57-60多版本音樂識(shí)別或翻唱識(shí)別(CoverSongIdentification)用于判斷兩首音樂是否具有同樣的本源。特點(diǎn)是主旋律基本相同但音樂結(jié)構(gòu)、音調(diào)、節(jié)奏、配曲、演唱者性別、語言等可能會(huì)發(fā)生巨大變化。一般提取穩(wěn)定的音樂中高層特征,在各個(gè)版本的整首音樂或音樂片段間進(jìn)行匹配。敲擊檢索(QuerybyTapping)根據(jù)輸入的節(jié)拍信息,從數(shù)據(jù)庫中返回按節(jié)拍相似度高低排序的音樂列表,沒有利用音高信息。一般提取音符持續(xù)時(shí)間向量作為特征,歸一化處理后動(dòng)態(tài)規(guī)劃比對(duì)并排序返回。音樂借用(MusicBorrowing)檢測(cè)不同歌曲之間旋律相似的部分。與音樂識(shí)別相比,音樂借用也檢測(cè)相似短片段,但后者不知道該片段在歌曲中的起始位置及長度。其可用于抄襲檢測(cè)。音樂情感識(shí)別(MusicEmotionRecognition,MER)[6]227-244音樂情感識(shí)別涉及心理學(xué)、音樂學(xué)、AI技術(shù)。其有兩種技術(shù)路線:一是利用Hevner或Thayer情感模型將MER歸結(jié)為單標(biāo)簽或多標(biāo)簽分類問題;二是歸結(jié)為基于Arousal和Valence(AV)值的二維AV情感空間回歸預(yù)測(cè)問題。MER廣泛應(yīng)用于音樂選擇、影視制作、音樂推薦、音樂治療等場(chǎng)景。音樂流派/曲風(fēng)分類(MusicGenreClassification)[7]282-289通過音頻特征提取和統(tǒng)計(jì)分類對(duì)音樂內(nèi)容進(jìn)行分析,可將音樂分為流行、搖滾、爵士、鄉(xiāng)村、經(jīng)典、藍(lán)調(diào)、嘻哈、迪斯科等類別。作曲家分類(MusicComposerClassification)讀取一段音樂,通過音頻特征和統(tǒng)計(jì)分類器(如決策樹、SVM)等方式分析音頻數(shù)據(jù)內(nèi)在的風(fēng)格,可識(shí)別出相應(yīng)的作曲家信息,常用于音樂理論分析。智能樂器識(shí)別(IntelligentInstrumentRecognition)識(shí)別多聲部/多音音樂中的各種樂器/主樂器。傳統(tǒng)技術(shù)框架為音頻特征提取(如LPC[LinearPredictiveCoding,線性預(yù)測(cè)編碼]、MFCC、常數(shù)Q變換倒譜系數(shù)、基于頻譜圖時(shí)域分析的音色特征、基于稀疏特征學(xué)習(xí)得到的特征)和統(tǒng)計(jì)分類器GMM(GaussianMixtureModel,高斯混合模型)、SVM、貝葉斯決策等,近十年又發(fā)展了基于深度學(xué)習(xí)(DeepLearning)的新方法。音樂結(jié)構(gòu)分析(MusicStructureAnalysis)[8]625-636通過自相似矩陣、遞歸圖、子空間聚類等方式把音頻流分割為一系列具有音樂意義的時(shí)間區(qū)域,如前奏、主歌、副歌、橋段和結(jié)尾,常用于音樂理解、多版本音樂檢索、樂句劃分、音樂摘要、音頻水印等。音樂摘要/縮略圖(MusicSummary/Thumbnail)通過初步的音樂結(jié)構(gòu)分析尋找最合適的片段作為摘要,一般以副歌和附近樂句為主,可應(yīng)用在彩鈴、瀏覽、搜索中。音樂推薦(MusicRecommendation)[9]1366-1367分為基于用戶歷史行為的個(gè)性化音樂主動(dòng)推薦,基于情感的推薦和基于場(chǎng)景(如工作、睡覺、運(yùn)動(dòng))的推薦等。音樂推薦一般使用三種技術(shù)框架,即協(xié)同過濾推薦(相似偏好用戶群喜好的音樂)、基于內(nèi)容的推薦技術(shù)(根據(jù)音樂間的元數(shù)據(jù)或聲學(xué)特征的相似性推薦),以及混合型推薦(多模態(tài)數(shù)據(jù))。音樂標(biāo)注(MusicAnnotation/Tagging/Labelling)應(yīng)用于復(fù)雜的音樂發(fā)現(xiàn)、建立語義相似的歌唱播放列表、音效庫管理、音樂推薦等場(chǎng)景。首先進(jìn)行人工標(biāo)注,給音樂和音頻賦予描述性的關(guān)鍵字或標(biāo)簽;之后采用機(jī)器學(xué)習(xí)模型學(xué)習(xí)音頻內(nèi)容與標(biāo)簽之間的關(guān)系并進(jìn)行自動(dòng)標(biāo)注。困難之處在于實(shí)際待標(biāo)注的標(biāo)簽內(nèi)容本身無法確定,且難以客觀評(píng)價(jià)標(biāo)注質(zhì)量。歌聲與歌詞同步音樂電視節(jié)目的理想情況是歌聲、口型、歌詞三者精準(zhǔn)同步。這是一個(gè)典型的結(jié)合音頻、視頻、文本三種媒體的多模態(tài)研究。截至目前,尚未發(fā)現(xiàn)關(guān)于三者同步的研究,僅有少量關(guān)于歌聲和歌詞同步的研究。三、與MIR相關(guān)的其他音樂科技研究課題介紹在傳統(tǒng)的MIR技術(shù)中,并不包括算法作曲、歌聲合成、音頻水印、音視頻結(jié)合等內(nèi)容??紤]到這些技術(shù)也屬于音樂科技中十分重要的方面,這里也進(jìn)行簡要介紹。(一) 自動(dòng)/算法/AI作曲(Automated/Algorithmic/AIComposition)指在音樂創(chuàng)作時(shí)部分或全部使用計(jì)算機(jī)技術(shù),減輕人(或作曲家)的介入程度。用編程的方式來生成音樂,一般用語法表示、概率方法、人工神經(jīng)網(wǎng)絡(luò)、基于符號(hào)規(guī)則的系統(tǒng)、約束規(guī)劃和進(jìn)化算法、馬爾克夫鏈、隨機(jī)過程、基于音樂規(guī)則的知識(shí)庫系統(tǒng)、深度遞歸神經(jīng)網(wǎng)絡(luò)等對(duì)時(shí)間域旋律進(jìn)行預(yù)測(cè)。(二) 歌聲合成技術(shù)(SingingVoiceSynthesis,SVS)通過共振峰參數(shù)合成法、采樣合成/波形拼接合成等方式,將歌詞按照樂譜合成為歌聲,應(yīng)用于虛擬歌手、玩具、練唱、音色轉(zhuǎn)換等多個(gè)場(chǎng)景。由西班牙MTG提供核心技術(shù),日本雅馬哈公司商業(yè)化的〃初音未來”即是一個(gè)最典型的代表。數(shù)字音頻水印技術(shù)(AudioWatermarking)[10]100-111數(shù)字音頻水印[10]100-111是在不影響原始音頻質(zhì)量的條件下向其中嵌入具有特定意義且易于提取信息的技術(shù),嵌入的水印能夠經(jīng)受各種時(shí)域頻域的音頻信號(hào)失真及同步失真。該技術(shù)可用于保護(hù)版權(quán)、廣播監(jiān)控、盜版追蹤、內(nèi)容標(biāo)注等。脆弱/半脆弱音頻水印用于數(shù)字音頻作品的真實(shí)性和完整性保護(hù)。脆弱水印用于檢測(cè)宿主數(shù)據(jù)發(fā)生的任何變化,半脆弱水印融合魯棒水印與脆弱水印的特性,能夠抵抗有損壓縮、噪聲等常規(guī)音頻信號(hào)失真,以及對(duì)剪切、替換、惡意篡改等非法操作敏感。音頻取證(AudioForensics)包括被動(dòng)音頻認(rèn)證,基本方式包括聽覺測(cè)試、頻譜圖/頻譜分析等,高級(jí)方式包括特征提取和統(tǒng)計(jì)分類。音視頻結(jié)合人類感知的本能告訴我們,應(yīng)大力開展融合音視頻的跨媒體科技研發(fā)。典型應(yīng)用有音樂可視化、基于視頻速度和音樂情感進(jìn)行的電影情感事件檢測(cè)等。四、總結(jié)與展望當(dāng)前的MIR技術(shù)發(fā)展仍然面臨諸多困難。從數(shù)據(jù)角度看,很多數(shù)字音樂涉及版權(quán)無法公開,各種音頻數(shù)據(jù)都源自特定場(chǎng)合和物體,難以搜集和標(biāo)注;從信號(hào)角度看,音樂中各種樂器和歌聲在音高上形成和聲,在時(shí)間上形成節(jié)奏,耦合成多層次的復(fù)雜音頻流,難以甚至無法分離處理,從而影響后續(xù)各個(gè)應(yīng)用。由于國內(nèi)教育體制原因,藝術(shù)界與科技界割裂嚴(yán)重。20世紀(jì)90年代時(shí)開始,各音樂院校逐漸開始設(shè)立音樂科技/音樂工程系。但是直到現(xiàn)在,音樂科技仍然嚴(yán)重依賴引進(jìn)設(shè)備、軟件進(jìn)行藝術(shù)創(chuàng)作,重實(shí)踐輕理論的觀念根深蒂固,沒有底層計(jì)算機(jī)軟硬件核心技術(shù)的研發(fā)能力。在理工科領(lǐng)域里進(jìn)行音樂科技研發(fā)的團(tuán)隊(duì)和相關(guān)公司近十幾年剛剛起步,目前整體力量還不夠強(qiáng)大。隨著中國經(jīng)濟(jì)的快速發(fā)展,近五年來,社會(huì)對(duì)音樂科技類的計(jì)算機(jī)軟硬件、互聯(lián)網(wǎng)產(chǎn)品的需求急劇增加。可喜的是,從小接受過音樂訓(xùn)練的理工科大學(xué)生數(shù)量越來越多,為該領(lǐng)域未來的發(fā)展提供了潛在的人力資源。2013年由復(fù)旦大學(xué)和清華大學(xué)創(chuàng)辦的全國聲音與音樂技術(shù)(ConferenceonSoundandMusicTechnology,CSMT)會(huì)議及交流平臺(tái)也對(duì)整個(gè)領(lǐng)域的發(fā)展起到了巨大的推進(jìn)作用??傮w來講,在當(dāng)代社會(huì),藝術(shù)與科技相融合是大勢(shì)所趨。無論從科技還是文化角度來講,音樂科技領(lǐng)域都具有很強(qiáng)的理論、應(yīng)用、文化及社會(huì)價(jià)值。在不久的將來,音樂科技一定會(huì)迎來它發(fā)展的輝煌時(shí)期。參考文獻(xiàn):【相關(guān)文獻(xiàn)】李偉,馮相宜,吳益明,等.流行音樂主旋律提取技術(shù)綜述[J].計(jì)算機(jī)科學(xué),2017,44(5).M.Goto.Anaudio-basedreal-timebeattrackingsystemformusicwithorwithoutdrum-sounds[J].Journalofnewmusicresearch,2001,30(2).M.Mauch,S.Dixon.Simultaneousestimationofchordsandmusicalcontextfromaudio[J].IEEEtransactionsonaudiospeechandlanguageprocessing,2010,18(6).P.S.Huang,S.D.Chen,P.Smaragdis,etal.Singing-voiceseparationfrommonauralrecordingsusingrobustprincipalcomponentanalysis[C]//IEEEin
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 湘教版地理八年級(jí)下冊(cè)第一節(jié)《四大地理區(qū)域的劃分》聽課評(píng)課記錄
- 北京課改版歷史七年級(jí)上冊(cè)第1課《中國境內(nèi)的遠(yuǎn)古人類》聽課評(píng)課記錄
- 小學(xué)二年級(jí)數(shù)學(xué)口算題上冊(cè)三
- 聽評(píng)課記錄小學(xué)五年級(jí)英語
- 婚姻財(cái)產(chǎn)約定協(xié)議書范本
- 中央空調(diào)系統(tǒng)節(jié)能環(huán)保改造協(xié)議書范本
- 2025年度綠植花卉租賃與酒店客房裝飾服務(wù)合同
- 2025年度環(huán)保項(xiàng)目銀行擔(dān)保合同
- 2025年度教育培訓(xùn)咨詢合同
- 湘教版數(shù)學(xué)八年級(jí)上冊(cè)3.3《實(shí)數(shù)的分類及性質(zhì)》聽評(píng)課記錄1
- 2024-2025學(xué)年冀教版數(shù)學(xué)五年級(jí)上冊(cè)期末測(cè)試卷(含答案)
- 商業(yè)綜合體市場(chǎng)調(diào)研報(bào)告
- 資源枯竭型城市的轉(zhuǎn)型發(fā)展 課件 2024-2025學(xué)年高二上學(xué)期地理人教版選擇性必修2
- 少兒素描課件
- 2025屆河北省衡水市衡水中學(xué)高考仿真模擬英語試卷含解析
- 天津市部分區(qū)2023-2024學(xué)年高二上學(xué)期期末考試 生物 含解析
- 變壓器投標(biāo)書-技術(shù)部分
- 《我國跨境電子商務(wù)消費(fèi)者權(quán)益保護(hù)問題研究》
- 2024九省聯(lián)考適應(yīng)性考試【甘肅省】歷史試卷及答案解析
- 四年級(jí)語文下冊(cè)第六單元【集體備課】(教材解讀+教學(xué)設(shè)計(jì))
- 小學(xué)一年級(jí)數(shù)學(xué)思維訓(xùn)練100題(附答案)
評(píng)論
0/150
提交評(píng)論