手机在线观看免费高清一级毛片,综合精品欧美日韩国产在线,中国免费无码的网站,欧美三级黄视频在线观看,色婷婷中文字幕在线观看视频,国产日韩强奸无码av网址,中国免费无码的网站

當前位置:安勤游戲網(wǎng) > 安勤資訊 > 是我創(chuàng)造了首個 LLM:Kaggle 前首席科學家一句話引發(fā) AI 學術圈考古行動

是我創(chuàng)造了首個 LLM:Kaggle 前首席科學家一句話引發(fā) AI 學術圈考古行動

更新時間:2025-05-06 11:07:29來源:安勤游戲網(wǎng)

論如何在技術圈爭論中一句話噎到對方:

哥們,是我創(chuàng)造了第一個大語言模型。

是我創(chuàng)造了首個

發(fā)言者 Jeremy Howard 為澳大利亞昆士蘭大學名譽教授、曾任 Kaggle 創(chuàng)始總裁和首席科學家,現(xiàn) answer.ai 與 fast.ai 創(chuàng)始人。

是我創(chuàng)造了首個

事情的起因是有人質(zhì)疑他最近的項目 llms.txt 在幫助大模型爬取互聯(lián)網(wǎng)信息上并沒太大作用,從而引發(fā)了這段爭論,迅速引起眾人圍觀。

聞訊而來的“賽博考古學家們”一番考據(jù)之后,發(fā)現(xiàn)第一個大語言模型這個說法還真有理有據(jù):

2018 年初,Jeremy Howard 發(fā)表的論文 ULMFiT,使用非監(jiān)督預訓練-微調(diào)范式達到當時 NLP 領域的 SOTA。

是我創(chuàng)造了首個

甚至 GPT-1 的一作 Alec Radford,在發(fā)表 GPT-1 時也公開承認過 ULMFiT 是靈感來源之一。

是我創(chuàng)造了首個

有人搬出綜述論文,指出從“遺傳學”視角看,ULMFiT 是所有現(xiàn)代大模型“最后的共同祖先”。

是我創(chuàng)造了首個

還有好事者軟件工程師 Jonathon Belotti,專門寫了一篇完整考據(jù)誰才是第一個大語言模型

是我創(chuàng)造了首個

大語言模型起源考據(jù)

首先來介紹一下 ULMFiT 這篇論文,入選 ACL 2018:

提出有效遷移學習方法,可應用于 NLP 領域的任何任務,并介紹了微調(diào)語言模型的關鍵技術,在六個文本分類任務上的表現(xiàn)明顯優(yōu)于當時的 SOTA 方法,在大多數(shù)數(shù)據(jù)集上將錯誤率降低了 18-24%。此外,僅使用 100 個帶標簽的示例,它的性能就與在 100 倍以上數(shù)據(jù)上從頭開始訓練的模型性能相當。

是我創(chuàng)造了首個

那么 ULMFit 算不算第一個大語言模型呢?Jonathon Belotti 考據(jù)遵循這樣的思路:

首先找一個大家都公認肯定算大語言模型的成果,GPT-1 肯定符合這個標準。

是我創(chuàng)造了首個

再從 GPT-1 和后續(xù) GPT-2、GPT-3 中提取一個模型成為成為大語言模型的標準:

首先要是一個語言模型,根據(jù)輸入預測人類書面語言的組成部分,不一定是單詞,而是 token

核心方法是自監(jiān)督訓練,數(shù)據(jù)集是未標記的文本,與此前特定于任務的數(shù)據(jù)集有很大不同

模型的行為是預測下一個 token

能適應新的任務:不需要架構修改,就有 few-shot 甚至 one-shot 能力

通用性:可以先進的性能執(zhí)行各種文本任務,包括分類、問答、解析等

接下來分析 GPT-1 引用的幾個重要模型:原版 Transformer,CoVe,ELMo 和 ULMFiT。

是我創(chuàng)造了首個

Transformer 雖然是現(xiàn)代主流大模型的架構基礎,但原版只用于機器翻譯任務,還不夠通用。同時非 Transformer 架構如 LSTM、Mamba 甚至 Diffusion 也可被視作大型語言模型。

CoVE 提出了語境化詞向量,是遷移學習領域的一項重要創(chuàng)新,但它通過監(jiān)督學習訓練(英語翻譯德語)創(chuàng)建向量,不符合自監(jiān)督學習的條件。

ELMo 使用了自監(jiān)督預訓練和監(jiān)督微調(diào)范式,但在 few-shot 能力上還差點意思。