EP31 | AI小教室:從RNN、LSTM到Transformer,電腦如何理解語言?

每月一次的AI小教室又來拉!本週我們想跟大家聊聊聊電腦如何理解「語言」。

本集重點:
💡時序性資料:不能翻轉!
💡RNN:理解語言資料的巫婆湯
💡LSTM:解決電腦的金魚腦
💡革命性進展!可以平行化運算的Transformer
💡Word Embedding:找出每個詞的相似性

主持人:文怡、Jerry
嘉賓:Kenny
製作團隊 :Jerry、文怡、Evian

#stanCodeWeekly #AI小教室
每月一次的AI小教室又來拉!本週我們想跟大家聊聊聊電腦如何理解「語言」。文字、序列或價格趨勢都是一種時序性資料,一但順序改變了就會失去原本資料的意義,也不像圖判可以藉由上下、左右翻轉來增加資料量。
這樣一來電腦要如何處理文字以及時序性資料?從RNN、LSTM到Transformer,在人人都在使用的chatGPT出現之前,語言模型又有什麼技術性的變化?
來聽聽本週的AI小教室吧!

stanCode標準程式教育機構-你也值得更好的教育

Facebook|https://www.facebook.com/stancode.tw
Instagram|https://www.instagram.com/stancode_tw/
YouTube|https://www.youtube.com/@stancode7228/videos
Website|https://www.stancode.tw/
TikTok|https://www.tiktok.com/

Leave a Reply

Close Menu