2023基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范_第1頁
2023基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范_第2頁
2023基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范_第3頁
2023基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范_第4頁
2023基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范II目 次前言 II1圍 12范引文件 13語定義 14略語 15于模大型慧交出技框架 26據(jù)樣建融合 27模機(jī)學(xué)大型 48于器習(xí)智行多態(tài)模應(yīng)場(chǎng)景 11PAGEPAGE1基于多模態(tài)大模型的智慧交通出行技術(shù)規(guī)范范圍(GB/T5271.34-2006信息技術(shù)詞匯第34部分:人工智能神經(jīng)網(wǎng)絡(luò)GB/T34678-2017智慧城市技術(shù)參考模型GB/T35295-2017信息技術(shù)大數(shù)據(jù)術(shù)語GB/T37043-2018智慧城市術(shù)語GB/T41867-2022信息技術(shù)人工智能術(shù)語GB/T5271.34-2006、GB/T34678-2017、GB/T35295-2017、GB/T37043-2018、GB/T41867-2022界定的以及下列術(shù)語和定義適用于本文件。3.1鄰接矩陣adjacentmatrix用以表示交通圖數(shù)據(jù)中不同節(jié)點(diǎn)的空間相關(guān)性權(quán)重的二維正方形矩陣。3.2歐式距離euclidean符合現(xiàn)實(shí)物理世界定義的距離評(píng)判標(biāo)準(zhǔn)。3.3注意力機(jī)制attentionmechanism通過額外的神經(jīng)網(wǎng)絡(luò)參數(shù)控制網(wǎng)絡(luò)關(guān)注點(diǎn)的一種手段。3.4周期學(xué)習(xí)率cycliclearningrate對(duì)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的一種調(diào)整手段。3.5隨機(jī)失活dropout對(duì)神經(jīng)網(wǎng)絡(luò)神經(jīng)元進(jìn)行隨機(jī)失活的一種手段。縮略語下列縮略語適用于本文件。GPS:全球定位系統(tǒng)(GlobalPositioningSystem)RNN:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork)LSTM:長(zhǎng)短期記憶網(wǎng)絡(luò)(LongShort-TermMemory)CNN:卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork)RMSE:均方根誤差(RootMeanSquareError)MAPE:平均絕對(duì)百分比誤差(MeanAbsolutePercentageError)GCN:圖卷積網(wǎng)絡(luò)(GraphConvolutionalNetwork)圖1基于多模態(tài)大模型的智慧交通出行技術(shù)體系GPS汽車和移動(dòng)設(shè)備的GPS數(shù)據(jù)可以用于實(shí)時(shí)交通流量監(jiān)測(cè)和預(yù)測(cè),路線規(guī)劃,以及對(duì)共享出行服務(wù)的需求預(yù)測(cè)。()(如車載傳感器、智能信號(hào)燈、智能停車場(chǎng)等IoT設(shè)備生成的數(shù)據(jù),可以提供實(shí)時(shí)的交通狀態(tài)信息。天氣條件可以影響人們的出行模式和需求,因此天氣數(shù)據(jù)也是一個(gè)重要的數(shù)據(jù)來源。數(shù)據(jù)清洗主要是去除噪音和異常值,處理缺失值,糾正錯(cuò)誤和不一致的數(shù)據(jù)。例如:GPSGPS對(duì)于文本數(shù)據(jù),刪除不需要的字符(如特殊字符,數(shù)字等)/GPSFMM(FastMapMatching),F(xiàn)MMGPS2,3(LabelEncoding)(One-HotEncoding)標(biāo)簽編碼(LabelEncoding)是一種常見的特征處理方法,它將分類變量(CategoricalVariables)(One-HotEncoding)(CategoricalVariables)GPSGPSTF-IDF(如[0,1]或[-1,1])z-score(Standardization),1z-scoreMin-MaxScaling)0,1]或[-1,1(FullyConnectedNetwork,F(xiàn)CN)(Multi-layerPerceptron,MLP)(ConvolutionalNeuralNetwork,CNN)CNNCNN(RecurrentNeuralNetwork,RNN)(LongShort-TermMemory,LSTM)和門控循環(huán)單元(GatedRecurrentUnit,GRU)。循環(huán)神經(jīng)網(wǎng)絡(luò)在許多任務(wù)上都表現(xiàn)出色,包括語言建模、文本生成、機(jī)器翻譯、語音識(shí)別、時(shí)間序列預(yù)測(cè)等。TransformerTransformerTransformer(key-valuepairs)EmbeddingEmbedding()Embedding層Embedding()交通數(shù)據(jù)的空間關(guān)系復(fù)雜,也使得圖卷積網(wǎng)絡(luò)從普通構(gòu)造逐漸發(fā)展演變出多種變體:(GraphGenerativeNeuralNetwork)(VariationalAutoencoderVAE)(GraphConvolutionalNetworkGCN)VAE/交通靜/動(dòng)態(tài)數(shù)據(jù)和環(huán)境數(shù)據(jù)通??梢员槐硎緸橐粋€(gè)高維向量,其中T代表著時(shí)間序列的長(zhǎng)度,N代表著城市劃分成的區(qū)域個(gè)數(shù),d代表著特征的維度。這個(gè)向量通??梢员槐硎境梢粋€(gè)網(wǎng)格狀或圖狀數(shù)據(jù)結(jié)構(gòu),因此無論是全連接網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò),Transformer還是圖神經(jīng)網(wǎng)絡(luò)都可以應(yīng)用在這些數(shù)據(jù)上進(jìn)行數(shù)據(jù)特征提取,一些經(jīng)典的特征提取模型如下:CNN,ResNet,DenseNet,ST-ResNet,DeepSTN+;RNN,LSTM,GRU,TPA-LSTM,LST-Net;Transformer:ST-Transformer,AirFormer;ST-GCN,T-GCN,GraphWaveNet(Transformer,TransformerCNN,AlexNet,VGG,ResNet,DenseNet,EfficientNetFaster-RCNN;Transformer:DETR,ViT,SwinTransformerTransformerRNN,LSTM,GRU,Bi-LSTM;Transformer:BERT,GPT,RoBERTa;Embedding:Word2Vec,GloVe()RNN,LSTM,GRU,Bi-LSTM;Transformer:BERT,GPT,RoBERTa;Embedding:Word2Vec,GloVe(300)(Weighted(Fusion((OuterProduct):((AttentionMechanism)DCCADeepCanonicalCorrelationAnalysis(DCCA):DCCA是一種優(yōu)化算法,用于尋找多個(gè)數(shù)據(jù)視圖之間的相關(guān)性。在多模態(tài)學(xué)習(xí)中,DCCA可以用來最大化不同模態(tài)之間的相關(guān)性。(CentralizedLearningStrategy)(FederatedLearningStrategy)(TransferLearning)(()(Meta-Learning)(Contrastive(Multi-TaskLearning)(OnlineLearning))包括L1,L2正則化,dropout等方法也可以防止模型過擬合,提高模型的泛化能力。cycliclearningrate()(SupportVectorMachine,SVM)SVM(RandomForest)(GradientBoostingTree)AdaboostPAGEPAGE13AdaBoost(AdaptiveBoostingTree)個(gè)強(qiáng)分類器。在AdaBoostEMEM(Expectation-MaximizationEMExpectationMaximizationKKDBSCAN7.1.2-7.1.7RMSE該指標(biāo)對(duì)應(yīng)于平方誤差的預(yù)期值,公式見(1)。 ????(,?)=√1??

(??

??)2

······················································(1)式中:????——預(yù)測(cè)值;???——預(yù)測(cè)節(jié)點(diǎn)個(gè)數(shù)。MAPE

????=1?? ??該指標(biāo)是對(duì)相對(duì)誤差損失的預(yù)期值,也即是絕對(duì)誤差和真值的百分比,公式見(2)。 ????(??,?)=1??|??????|··(2)式中:????——預(yù)測(cè)值;???——預(yù)測(cè)節(jié)點(diǎn)個(gè)數(shù)。KL

????=1

|????|KL離散度是一種衡量?jī)蓚€(gè)概率分布之間差異的度量方式,公式見(3)。 ??L=∑????(??)(log??(??)?log??(??)) (3)式中:??(??)——??在x??(??)——??在x交叉熵4 ????=?∑????(??)log??(??) (4)式中:??(??)——??在x??(??)——??在x精確率該指標(biāo)是分類器預(yù)測(cè)的正樣本中預(yù)測(cè)正確的比例,取值范圍為[0,1],取值越大,模型預(yù)測(cè)能力越好。公式見(5)。 ??=????/(????+????)····································································(5)式中:????——????該指標(biāo)是分類器所預(yù)測(cè)正確的正樣本占所有正樣本的比例,取值范圍為[0,1],取值越大,模型預(yù)測(cè)能力越好。公式見(6)。 ??=TP/(????+???) (6)式中:????——預(yù)測(cè)正樣本正確;???——預(yù)測(cè)負(fù)樣本錯(cuò)誤。得益于較強(qiáng)的多源數(shù)據(jù)融合和分析能力,基于機(jī)器學(xué)習(xí)的智慧出行多模態(tài)大模型在現(xiàn)實(shí)中有著非常2。8.2

實(shí)時(shí)導(dǎo)航

圖2基于機(jī)器學(xué)習(xí)的智慧出行多模態(tài)大模型的應(yīng)用場(chǎng)景最優(yōu)路線規(guī)劃:基于實(shí)時(shí)路況信息,實(shí)時(shí)智能導(dǎo)航系統(tǒng)可以為用戶規(guī)劃最優(yōu)的出行路線。這動(dòng)態(tài)路線調(diào)整:在用戶行駛過程中,如果出現(xiàn)了新的路況變化(擁堵)在現(xiàn)代社會(huì)中,人們的出行通常是一種多模態(tài)的選擇,即人們會(huì)使用多種交通工具,例如公交車、BCD規(guī)劃最優(yōu)路徑:根據(jù)乘客的出行需求(例如起點(diǎn)、終點(diǎn)、出行時(shí)間等)和預(yù)測(cè)的交通狀況,(DijkstraA*)(個(gè)性化服務(wù):通過學(xué)習(xí)乘客的出行歷史和偏好,機(jī)器學(xué)習(xí)模型可以提供個(gè)性化的出行規(guī)劃服通過分析交通事故數(shù)據(jù)、天氣狀況、駕駛員行為等,機(jī)器學(xué)習(xí)模型可以預(yù)測(cè)并警示潛在的安全風(fēng)險(xiǎn)。規(guī)律,從而預(yù)測(cè)未來的事故風(fēng)險(xiǎn)。這個(gè)過程可能會(huì)考慮許多因素,例如路段特性(路型、路面狀況等)(例如駕駛速度、車道變換、制動(dòng)行為等),機(jī)器學(xué)習(xí)模型可以識(shí)別出危險(xiǎn)的駕駛行為,并預(yù)警駕駛員。此外,通過學(xué)習(xí)駕駛行為和事故數(shù)據(jù),模型還可以預(yù)測(cè)某種行為可能導(dǎo)致事故的風(fēng)機(jī)器

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論