嗨,早!
前陣子中研院釋出一套繁體中文的大型語言模型(Large language models)CKIP-Llama-2-7b,但由於中研院一開始沒有說明這套模型是為了研究歷史人物專用,讓外界誤以為這是一套繁體中文的通用語言模型,並衍生出錯誤的期待、風波。
雖然這是一場誤會,但許多人都是經由這起事件才忽然意識到 AI 不是都靠別人就好,台灣也需要有本土化的大型語言模型才行。只不過,台灣的大型語言模型需要本土化的資料。不光整理資料本身就是一項苦工,連資料格式該怎麼訂定才能與國際接軌都是問題。
這集區塊勢邀請 Numbers Protocol 的共同創辦人 Tammy Yang 錄音。Tammy 的背景相當特別,她本身是物理學家卻在創辦 Numbers 之前還創立了 DT42 這家 AI 新創公司,是真正對 AI 和區塊鏈都有實戰經驗的專家。有別於網路上討論區塊鏈、AI 的內容,多數是要你投資加密貨幣。這集能提供另一種視角,資料先天就是一種數位資產。
這集內容包含:
DT42、Numbers Protocol 這兩家 AI 和區塊鏈新創分別在解決什麼問題?
身為 AI、區塊鏈新創的創辦人,會說 AI 和區塊鏈有什麼關係?
在 Web2 的資料是如何流動,Web3 的資料經濟又有什麼不同?
以中研院釋出的 LLM 風波為例,你從中看到哪些現象?哪些與 Web3 有關?
「開源標準適合小資料體」是什麼意思?小國與大國在發展 AI 上會有什麼差異?
延伸閱讀:
Share this post