在我開始教 AI 之前,我先被一堂音樂課打醒
周端政|文化系統觀察者・AI 語意工程實踐者・樸活 Puhofield 創辦人
S0|那堂不是鋼琴課的課:教育真正教的是什麼
我最近看到一段影片,一位音樂人帶著兩個孩子上課。他沒有急著教指法,也沒有急著糾正節拍,而是先停下來問了一句很重的話:
「我們是在上鋼琴課嗎?我們是在上音樂課嗎?」
這句話聽起來像玩笑,但它其實是在切開教育最常見的一個誤會——
我們常常把「技巧」當成「教育」本身。
第一段是一個九歲的小男孩。家長給他選了一首九〇年代的情歌《一千個傷心的理由》。孩子很努力地彈,努力把旋律彈得像樣,也努力讓自己的表情看起來「有情緒」。但那份情緒其實不是他的;九歲的孩子心裡怎麼可能真的裝得下一千個傷心的理由?他彈出的更像是一種「迎合」,是把大人的期待扛在自己身上。
老師沒有在那一刻說他彈錯,也沒有要求他更像原曲。老師做的是另一種更難的事情:他把曲子拆回孩子能理解的世界,先讓孩子找到「他自己想說的感覺」,再用簡單的旋律、和弦、節奏,一點一點把左手右手加回來,最後讓那首歌變成「屬於這個男孩的版本」。孩子開始笑,因為他不是在模仿,他終於彈出了自己的感受。
第二段是一個小女孩。老師問她:「日出是什麼感覺?日落呢?」他沒有給標準答案,只是引導她說出心裡的畫面。她慢慢說出:日落有點悲傷、日出比較溫暖;如果是在日出時散步,節奏可能要慢一點、柔一點。你看,孩子在那一刻學到的不是技巧,而是把內在感受翻譯成可被聽見的表達。
那位老師最後說:
「我不是在教你技巧,我是在教你怎麼感受音樂。」
我被這句話打中,不是因為它浪漫,而是因為它太現實。
如果作曲只是數學結構、和弦公式、段落配置,那麼電腦與 AI 早就能做得又快又好,幾秒鐘就能生成上百上千份「完美的譜」。那我們還要讓孩子用十年去練一場注定輸的比賽嗎?如果教育只剩下技巧,那它會很有效率,但也會很快失去意義——因為技巧一旦可被標準化,就一定會被自動化。
也正是因為這段影片,我才回頭重新問自己:
當我談「AI 與教育」時,我到底在談什麼?
我並不是沒有走過制度的人。我接觸過聯合國體系中關於 AI 與倫理、AI 與法律的正式文件,也完成過聯合國相關體系的遠端教育與培訓課程,並取得 Google 的 AI 教育與實務相關認證。我理解這些框架為何存在,也知道它們嘗試解決的問題是什麼。
但同時,我也必須很清楚地交代:我尚未正式在大學體系開設 AI 相關課程。正因如此,我更不允許自己把「流行的工具教學」當成教育,然後在站上講台之後才發現:我其實只是在教一套很快就過期、而且 AI 會做得更好的東西。
所以這篇文章談的不是「我怎麼教 AI」,而是——
在我開始教 AI 之前,我必須先想清楚:教育真正要教的是什麼;而不是教什麼看起來最前沿、最討喜、最容易被驗收。
更何況,我還有一個無法忽略的身分:我的女兒正在念大學。這讓我不能只用「內容設計者」的角度談教育。我必須問自己一個很具體的問題:
如果今天坐在教室裡的是我的女兒,我希望她學到的是什麼?
是下一次工具改版就失效的操作技巧?
還是能陪她走過十年變動的理解、判斷與表達能力?
這不是一個可以用課綱解決的問題。
但它是我在真正開始教 AI 之前,必須先回答的起點。
S1|當制度對我最有利時,教育往往已經偏離學生
如果我誠實地面對自己,就不能跳過一個更尖銳、也更不舒服的問題。
在現行制度裡,一門課怎麼設計、要教什麼內容,從來不是在真空中發生的。
評鑑、升等、計畫申請、研討會發表——這些制度性指標,實際上會深刻影響一個人「選擇教什麼」。
如果我把「對我最有利」放在第一順位,那麼課程設計很自然就會往某些方向傾斜:
題目要夠新、名詞要夠前沿、架構要說得出口,最好還能對應到國際趨勢與政策語彙。
AI,正好完美符合這些條件。
談 AI 的原理、架構、模型演進、大型語言模型的設計邏輯,看起來學術、合理、也容易被視為「有深度」。這些內容很適合拿去研討會發表,也很容易被包裝成「前瞻研究」或「跨域教學」。
但如果我暫時把制度放在一邊,回頭問一個更簡單、也更殘酷的問題:
這些內容,對學生真正有什麼長期幫助?
答案其實並不樂觀。
AI 的架構與模型演進,更新速度遠遠超過課程週期。半年、一年之後,今天被視為核心的內容,很可能已經被新的技術路線完全取代。學生記住的,往往只是一組過期的名詞,而不是可遷移的能力。
於是,一個矛盾開始出現:
對制度而言,這樣的課程「看起來很成功」;
對學生而言,卻可能只是參與了一場短暫有效、但無法累積的學習。
如果我明知這一點,卻仍然選擇把制度利益放在前面,那我其實已經在用學生的時間,替自己完成一套合理但自利的設計。
而這,正是我在「開始教 AI 之前」,最不能輕率跨過的一條線。
S2|時間尺度錯位:連 AI 新創都撐不住的世界,為何要學生硬追?
當制度利益被放在前面,課程內容自然會往「可被命名、可被發表、可被評量」的方向靠攏。但即使暫時不談動機,只從結構來看,AI 教育本身就存在一個無法忽視的問題——時間尺度的根本錯位。
教育體系運作的節奏,是以學期、學年與課程大綱為單位。一門課從構想到審查,從通過到實際開課,往往需要一年以上的時間。即便內容再前沿,一旦進入課程結構,就已經被固定在某一個時間點的理解之中。
但 AI 的發展,並不遵循這樣的節奏。
模型能力的躍進、工具介面的翻新、工作流程的重組,往往發生在數月之內,有時甚至是幾週。今天仍被視為關鍵能力的操作方式,可能在下一次模型更新後,立刻被新的介面或自動化流程取代。
這一點,其實早已在市場上被反覆驗證。
自從 AI 能力開始大幅提升之後,這幾年出現了大量以「當下 AI 能力」為核心的新創服務與創業模式。它們反應最快、離現場最近,也最有動機緊貼技術前沿。
但我們同時也清楚看到:
不少新創服務,早已在半路消失。
不是因為執行不力,而是因為世界變得太快。
模型能力的躍遷、平台策略的改變、工具整合方式的翻轉,往往直接抹平了原本的商業基礎。昨天還成立的服務,今天就失去了存在必要。
這個現象本身就說明了一件事:
即使是以 AI 為核心競爭力的專業團隊,都無法保證自己的模式能撐過一個完整週期。
在這樣的環境下,若我們期待學生用數年的學習時間,去掌握某一代工具、某一套流程,甚至某一種模型理解,本身就是一種錯置。
問題不在於教得新不新,而在於——
世界的變化速度,已經超過任何以「追逐工具」為核心的學習設計。
當連市場上最敏感的新創公司,都必須承認「追不上變化」是常態時,教育若仍假設自己可以靠更新課綱來解決問題,無疑是誤判了戰場。
在 AI 的情境下,時間尺度錯位不是偶發,而是必然。
如果我們不正視這一點,那麼再前沿的課程設計,也只是在用制度允許的速度,教一個早已離開現場的世界。
S3|當連新創都撐不住,為什麼還要把學生訓練成技巧熟練者?
如果連最貼近現場、最有動機追逐技術的新創團隊,都無法保證自己撐得過一個完整週期,那我們其實已經得到一個非常清楚的訊號。
問題不在於誰學得夠不夠快,而在於——
這個世界已經快到,不再獎勵「技巧熟練者」。
新創團隊之所以會失敗,往往不是因為不夠努力,而是因為他們押注的,是某一個「當下看起來合理」的能力組合:某一代模型、某一種介面、某一套工作流程。當技術環境整體翻轉時,這些努力就會在極短時間內失去立足點。
把這個現象拉回教育現場,其實非常不安。
因為我們正在做的,正是把學生放進一個同樣的賭局:
要求他們用時間、注意力與學習成本,去換取某一代技巧的熟練度,然後期待這些技巧能成為未來的護身符。
但在 AI 的環境裡,技巧本身正在快速貶值。
只要一個流程可以被拆解成步驟,它就會被自動化;
只要一種操作可以被教學化,它就會被內建;
只要一套技巧可以被標準化,它就會被模型吸收。
在這樣的前提下,教學生如何把某一套技巧做得更好,並不等於在替他們累積優勢。很多時候,只是在延後被淘汰的時間點。
這並不是對學生的不尊重,而恰恰相反——
這是一個我們必須替學生先承擔的判斷。
如果我們明知技巧正在加速失效,卻仍然把「技巧熟練」包裝成安全選項,那其實是在把風險往後推給學生自己承擔。
而這,正是我在思考 AI 教育時,始終無法接受的一件事。
因為一旦教學的核心被設定為「把技巧做到更熟」,我們其實已經預設了一個錯誤的競爭場域:
讓人類在 AI 最擅長的領域裡,和 AI 比速度、比結構、比穩定性。
這不是挑戰,而是消耗。
真正該被訓練的,從來不是「如何把工具用得更熟」,而是——
在工具快速失效的情境下,人是否仍然具備判斷、轉向與重新定位的能力。
而這種能力,正好是「技巧導向的課程」最難教、也最常被忽略的部分。
S4|為什麼這一切,其實早就在那堂音樂課裡被說完了
走到這裡,如果再回頭看那堂音樂課,事情其實已經非常清楚了。
那位老師真正做的,並不是「不用技巧」,而是拒絕把技巧當成終點。
技巧存在,但它只是工具;它永遠是為了服務某個更核心的東西——感受、判斷,以及「我為什麼要這樣表達」。
九歲的男孩彈《一千個傷心的理由》時,技巧沒有問題,結構也沒有錯。
真正不對勁的,是那首歌承載的情緒,並不屬於他。
如果老師只是要求他「彈得更像」,那孩子學會的,會是一種極為危險的能力:用不屬於自己的感受,完成一個看起來正確的結果。
那位老師選擇了另一條路。
他先把音樂拆回孩子能理解的感覺,再慢慢把技巧放回來,讓技巧成為「表達自我」的工具,而不是「迎合外部期待」的手段。
小女孩談日出與日落時,也是一樣。
老師沒有給她標準答案,而是引導她辨識差異、調整節奏、感受氛圍。
她學到的不是怎麼彈得正確,而是怎麼把模糊的內在經驗,轉化成可以被聽見的形式。
這正是那句話真正的重量所在:
「我不是在教你技巧,我是在教你怎麼感受音樂。」
如果把這個場景直接換成 AI 教育,對照會變得近乎殘酷地清楚。
當我們教學生的是:
如何下指令、如何調參數、如何優化流程、如何做出「像樣的成果」,
我們其實正在做和那位家長一樣的事——
把一套看起來成熟、但不一定屬於學生的結構,直接套在他們身上。
學生或許能產出結果,也可能因此被稱讚有效率、跟得上時代。
但如果他們從來沒有被訓練去辨識:
「這是不是我真正要解決的問題?」
「這個結果在什麼情境下才有意義?」
「當工具改變時,我還剩下什麼?」
那麼,他們學到的,很可能只是另一種形式的模仿。
AI 可以在幾秒鐘內生成結構完美的內容,
就像電腦可以生成無數首結構正確的樂曲。
如果教育只教這一層,那人類站在教室裡的理由,其實早就消失了。
那堂音樂課真正保留下來的,不是技巧,而是一個位置:
人在表達之前,必須先能感受;
在生成之前,必須先知道自己為什麼要說。
而這個位置,正是 AI 無法替代、也無法代替學生承擔的部分。
S5|在 AI 時代,教育真正該為學生保留的那個位置
走到這裡,其實已經可以很清楚地看見一件事:
在 AI 快速擴張的環境中,教育真正的問題,從來不是「要不要教 AI」,而是——我們要把學生放在什麼位置上學習。
如果學習的核心,是熟練某一套技巧、某一代工具、某一種流程,那學生被放置的位置,其實非常明確:
他們被期待成為一個更有效率的執行者。
但這個位置,在 AI 的世界裡,正在迅速失去意義。
因為執行本身,正在被全面外包;
結構與格式,正在被自動內建;
甚至連「產出品質」,都不再需要透過人類的反覆練習來保證。
在這樣的前提下,如果教育仍然把學生訓練成「能把事情做得很像、很快、很完整的人」,那其實不是在為他們準備未來,而是在把他們推向一個越來越狹窄的位置。
真正需要被保留下來的,是另一種能力——
在工具唾手可得之後,人仍然知道自己為什麼要使用它。
這個能力,不是技巧,也不是知識點,而是一個更深層的位置:
-
能夠在生成之前,先判斷問題是否值得被解
-
能夠在結果出現之後,辨識它在什麼情境下才有意義
-
能夠在工具失效時,重新理解自己真正想做的是什麼
-
能夠為自己的選擇承擔後果,而不是把責任交給流程或模型
這些能力進展緩慢、難以驗收,也不容易被量化成成果指標。
它們不討喜,也不保證立刻帶來回饋。
但正是因為如此,它們才無法被快速複製,也無法被自動化取代。
那堂音樂課之所以成立,正是因為老師選擇保留了這個位置。
他沒有急著把孩子變成「彈得像樣的人」,而是先確保他們仍然站在「能感受、能理解、能表達自己」的位置上。
AI 教育亦然。
如果教育的任務,只是讓學生學會駕馭當下最強的工具,那這份教育很快就會過期;
但如果教育願意替學生保留那個不被工具吞沒的位置,那麼即使工具不斷更替,學生仍然能夠重新站穩。
這不是保守,也不是抗拒技術。
恰恰相反,這是對變動速度的正確認識之後,所做出的最務實選擇。
因為在一個什麼都能被快速生成的時代,
唯一真正稀缺的,從來不是產出,而是理解與判斷。
補充章節|「只教最好的學生」在 AI 時代所隱含的結構性風險
在高等教育場域中,經常可以聽到一種自我定位的說法:
教師以「只在頂尖大學任教、只教最優秀的學生」作為專業能力與教學品質的象徵。
在過去,這樣的定位具有其合理性。因為高等教育長期以來所獎勵的,是在既有制度中表現最穩定、最符合規範、也最能有效掌握既定方法的學生。這些能力,確實曾經對個人的職涯發展與社會流動具有高度正相關。
然而,AI 的出現,使這個前提首次需要被重新檢視。
從能力結構來看,「體制中被訓練得最完整的學生」,往往具備高度標準化的特質:
對既有問題框架的高度適應力、對既定方法的熟練掌握,以及在明確規則下追求最佳解的能力。
但正是這些能力,在 AI 系統快速成熟後,開始顯示出高度可替代性。
因為一旦問題被清楚定義、流程被拆解、評估標準被形式化,AI 在速度、穩定性與一致性上,往往能超越人類個體。
這並不意味著頂尖學生「不再優秀」,而是指出一個結構性的轉變:
過去被教育體系視為高度價值的能力組合,正在喪失其獨佔性。
在這樣的背景下,若教育仍然以「你是否已經是體制定義下的優等生」作為進入 AI 教育的門檻,實際上可能產生一個反效果——
優先培養的,反而是最容易被自動化吸收的能力形態。
這使得「只教最好的學生」這一說法,在 AI 時代需要被重新理解。
它不再只是教育資源集中或教學品質的象徵,也同時成為一個必須被審視的風險訊號:
當教育過度聚焦於既有體制下的優化,是否反而忽略了學生在高度不確定環境中,重新定位自我的能力?
因此,真正值得被討論的問題,並非學生是否「夠好」才有資格學習 AI,而是——
教育所定義的「好」,是否仍然對應未來所需的不可替代能力。
這個問題,不只關乎教學內容的選擇,也關乎高等教育在 AI 時代所扮演的角色定位。
結語|在我真正開始教 AI 之前,我不能對這些事視而不見
我並不是站在講台上,回頭質疑教育。
恰恰相反,正因為我還沒正式開始在大學體系教 AI,我才必須先把這些問題想清楚。
我看過制度如何運作,也理解評鑑、升等與計畫為何存在;
我接觸過聯合國體系中關於 AI 與倫理、AI 與法律的正式框架,也完成過相關的遠端教育與培訓;
我同時也持續在實務世界裡,看著工具、模型與工作方式,一次又一次被快速改寫。
但在所有角色之外,我還有一個無法抽離的身分——
我是一個父親。
我的女兒正在念大學。
這讓我無法只用「制度合理」來安慰自己,也無法只用「這樣比較好教」來做決定。
如果今天坐在教室裡的是她,
我真的希望她學到的是什麼?
是某一代很快就會過期的工具操作?
是一套看起來前沿、實際上只能撐一個短週期的流程?
還是那種即使世界翻轉,仍然能幫助她判斷方向、理解情境、為自己選擇負責的能力?
那堂音樂課之所以一直留在我心裡,正是因為它誠實地回答了一件我們常常逃避的事:
如果教育只教得出技巧,那它終究會輸給機器。
真正困難、也真正值得被留下來的,從來不是「怎麼做得更像」,
而是「我為什麼要這樣做」。
在一個什麼都可以被快速生成的時代,
教育如果連這個問題都不願意替學生先想過一次,
那麼再新、再熱、再完整的課程設計,
都只是把選擇延後,交給學生自己承擔。
所以,在我真正開始教 AI 之前,
我選擇先站在這裡,把位置想清楚。
不是因為我已經有答案,
而是因為有些問題,一旦被忽略,就再也補不回來了。
Q1|在 AI 時代,為什麼「教技巧」反而可能對學生不利?
因為 AI 正在快速吸收、內建並自動化各種可標準化的技巧。當教育把「技巧熟練」當成核心目標時,學生其實被放進一場結構上必敗的競賽——與 AI 在速度、穩定性與產量上競爭。短期看似實用的技巧,往往在工具更新後迅速失效,無法轉化為長期可遷移的能力。
Q2|那 AI 教育是不是就不該教工具或操作方式?
不是不教,而是不能只教。工具與操作可以作為入口,但不該成為終點。真正關鍵的是:學生是否理解「為什麼在這個情境下使用這個工具」,以及「當工具失效或被取代時,自己還剩下什麼判斷能力」。工具是手段,不是教育的核心價值。
Q3|為什麼 AI 的發展速度,會讓傳統課程設計出現結構性問題?
因為教育體系以學期、學年與課綱為節奏,而 AI 的變化往往以月甚至週為單位。這種時間尺度錯位,導致課程一旦成形,內容就已經開始老化。這不是教師或學生的問題,而是制度節奏與技術節奏本質上不相容。
Q4|AI 新創快速失敗,和教育有什麼關係?
AI 新創通常是最貼近技術現場、反應最快的一群人,但即便如此,仍有大量服務在短時間內被淘汰。這個現象證明:即使以 AI 為核心競爭力,也無法保證模式能撐過一個完整週期。若連新創都撐不住,要求學生用多年學習去追逐某一代工具,本身就是高風險設計。
Q5|為什麼談 AI 架構、模型原理,對學生幫助有限?
這類內容在學術與制度層面「很好看」,也容易被納入評鑑與研究發表,但對多數學生而言,它們更新極快、應用情境有限,且難以轉化為實際判斷力。學生往往記住名詞,卻無法在現實問題中知道何時該用、何時不該用 AI。
Q6|這篇文章反對 AI 教育或 AI 進入校園嗎?
不反對。文章反對的不是 AI,而是把短期制度利益或流行題目,誤當成教育本身。AI 是工具,也是環境的一部分;問題在於教育是否願意替學生保留「理解、判斷與責任承擔」的位置,而不是只訓練他們成為更有效率的執行者。
Q7|那在 AI 時代,教育真正該培養的是什麼能力?
是三種高度相關、卻難以量化的能力:
-
在生成之前,判斷問題是否值得被解
-
在結果出現之後,理解它在什麼情境下才有意義
-
在工具改變時,仍能重新定位自己要解決的問題
這些能力無法被快速自動化,也無法靠工具替代。
Q8|為什麼作者在「還沒正式教 AI 之前」就提出這些質疑?
正因為尚未站上講台,才必須先把教育的倫理位置想清楚。這不是對制度的否定,而是一種前置責任:在開始教之前,先確認自己教的,不會只是對制度有利、卻對學生人生幫助有限的內容。尤其當作者同時也是一位父親,這樣的提問無法迴避。
References(APA 7th Edition)
Autor, D. H., Levy, F., & Murnane, R. J. (2003).
The skill content of recent technological change: An empirical exploration. The Quarterly Journal of Economics, 118(4), 1279–1333. https://doi.org/10.1162/003355303322552801
Acemoglu, D., & Restrepo, P. (2020).
Artificial intelligence and jobs. Journal of Economic Perspectives, 34(3), 30–54. https://doi.org/10.1257/jep.34.3.30
Brynjolfsson, E., Rock, D., & Syverson, C. (2021).
The productivity J-curve: How intangibles complement general purpose technologies. American Economic Journal: Macroeconomics, 13(1), 333–372. https://doi.org/10.1257/mac.20180348
CB Insights. (2023).
The top reasons startups fail: AI sector analysis. CB Insights Research.
https://www.cbinsights.com/research/startup-failure-reasons-top/
Collins, R. (2019).
The credential society revisited. Sociology of Education, 92(4), 290–305. https://doi.org/10.1177/0038040719878924
Marginson, S. (2016).
The dream is over: The crisis of Clark Kerr’s California idea of higher education. University of California Press.
Nussbaum, M. C. (2010).
Not for profit: Why democracy needs the humanities. Princeton University Press.
OECD. (2021).
Artificial intelligence, skills and education: A framework for policy action. OECD Publishing.
https://doi.org/10.1787/3c6d5b59-en
Polanyi, M. (1966).
The tacit dimension. University of Chicago Press.
UNESCO. (2023).
Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization.
https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research