Notifications
Clear all
Topic starter
16/12/2025 2:49 下午
轉貼內容:
太多天才的地方,多棒的點子都可能被忽視 - Google 的後悔莫及
在 AI 時代大家心中一定有一個疑問,就是 Transformers 架構明明是 Google 發明的,為什麼他們不是第一個做出 AI 的人?反而讓 OpenAI 搶到了先機?今天看了 Sergey Brin 在史丹佛大學(Stanford)工程學院 100 週年的訪談,他提到最後悔的一件事,就是低估了 Transformers 架構的威力。
8 年前(2017),Google Brain 的 Transformers 架構靜悄悄地出現。當時沒有人太在意,以為這「只是一個新的 Architecture 罷了」。當人們驚覺其重要性時,已經是 5、6 年後 ChatGPT 橫空出世的時刻了。
大多數學術研究者當時也沒太在意。記得在看李宏毅老師的課程時,他提到 BERT 覺得很棒,我也在 2019 年用 BERT 做了很多專案,甚至成功幫法律事務所進行商標術語審核,然而應用就停在那裡了。當時大家普遍認為它只是 Bi-LSTM 的替代品,事實上,那時用 LSTM 做的情感分析應用在訂房網站上已經能做到 SOTA(目前最佳)了,沒有強烈的動力去改變。
李宏毅老師提到 GPT 時,我印象最深的就是「模型很大」,然後就沒了。我去上課時,也頂多示範一個粉紫色的獨角獸網站叫「Write with Transformers」,做了一些 one-shot、few-shot 的示範,大家看過也就過去了。
接著就是 OpenAI 的 GPT 時刻。Sergey Brin 在訪談中說得很中肯:「我們當時確實搞砸了,沒有正視這個架構,也沒有投入足夠的資源( under-invested) 去擴展(Scale)算力。」他解釋當時的心態:「因為聊天機器人有時會胡說八道(dumb things),我們太過謹慎、太害怕出錯,所以遲遲不敢將其產品化。」
他還提到:「OpenAI 不但將其發揚光大,還網羅了我們的人才(如 Ilya Sutskever),然後就原地起飛了。」
事實上,Google 這個充滿科學家的地方,只要出現一點點「玄學」或不精確的狀況,就可能面臨巨大的同儕與社會壓力。2022 年 6 月,正是 ChatGPT 問世的前半年,Google 的工程師 Blake Lemoine 聲稱內部模型 LaMDA 具有「自我意識」。這件事被媒體大幅報導,連老高都有一集專門講這件事。自 LaMDA 事件後,Google 對 LLM 的態度變得更加保守謹慎,結果錯失了千古留名的先機。
這一錯過,追趕就是整整三年。雖然目前稍有起色,但整個世界的天平已經向 OpenAI 傾斜。現在任何人提到 AI,直覺想到的就是 ChatGPT。就算 Gemini 現在這麼紅,我遇到 10 個人裡至少還是有 3 個人會唸錯名字。
科學家、工程師、理工男,有時就是少了點「人味」與對市場的敏銳度。有時一個突發奇想,反而會成為改變世界的契機。Google 充滿了天才,但在 AI 時代,情緒價值或「人情味」反而成了稀缺資產。大家一定覺得,發明了 Transformers 架構的 Google 竟然沒有將其發揚光大,連 Sergey Brin 自己回頭看也感到後悔莫及啊!
