
聲明:以「人工智慧基本法-國民黨12個委員提案版本之彙整版」為討論標的,法案於 2025 年 8 月 4 日於立法院教育文化委員會聯席交通委員會逐條審查,最終出委員會之版本以議事公報記錄為主。
更新:根據 2025 年 8 月 4 日立法院教育文化委員會、交通委員會聯繫審查會議結果,本法案之法案名稱、條文第 1 到第 11 條依據上回審議結果續行保留,第13、16、17、18、19、20 條以及各章名,加上台灣民眾黨黨團所提草案第33條到第39條保留,本法草案(出委員會)送院會處理。
前言:全球AI規範競速與臺灣立法迫切性
2025年各國紛紛加緊AI法制布局:歐盟《AI法案》即將生效,日本6月底通過《促進人工智慧發展利用法》(AI推進法),美國白宮7月發布《AI行動計畫》,中國也在7月宣布《人工智能全球治理行動計劃》。整體趨勢顯示,國際間對AI的共識是在「促進創新與因應風險」之間取得平衡,並藉由高階戰略統籌與原則指引,快速建立AI發展規範。
臺灣若再不制定上位法,不僅科技發展可能受制於缺乏明確法源,亦可能被排除在國際規範圈外。本會期《人工智慧基本法》匯集朝野11位立委提案版本整合而成,其宗旨在於以法律明定政府AI發展方針,兼顧創新推動與倫理治理雙軌並行,讓臺灣展現「臺灣速度」,在全球AI競賽中佔有一席之地。
第一條:立法目的與宗旨
條文內容:第一條闡明立法目的,包括:建設智慧國家、促進AI研發與產業發展、建構AI安全應用環境、落實數位平權、保障人民基本權利、增進社會福祉、提升生活品質、促進社會國家永續發展、維護國家文化價值、提升國際競爭力,以及確保技術應用符合社會倫理。此條並規定本法未規定事項適用其他法律,以確保法律體系的一致性。
理念解析:本條彙總了AI發展對國家社會的多重目標,是整部法律的綱領。首先,它凸顯AI對經濟社會的重要性:將AI定位為驅動國家發展與提升競爭力的核心動力。同樣的措辭也出現在日本AI推進法中——日本國會強調「AI相關技術是日本經濟社會發展的基礎技術」。
這種定位彰顯立法者希望AI在國內蓬勃發展的決心。其次,本條列入社會公益、永續發展、數位平權、人民權益與文化價值,顯示立法不是為了技術而技術,而是確保AI發展服務於全民福祉與臺灣的文化主體性。
數位平權與基本權保障的納入,反映立法者關切AI可能帶來的數位落差與人權挑戰,強調發展AI同時不能犧牲弱勢權益與民主價值。本條明示社會倫理原則,確保AI的技術應用符合道德規範,這與歐盟強調「可信任AI」以及美、日等國倡導的「以人為本」理念一脈相承。
第二條:主管機關的定位
條文內容:第二條規定本法中央主管機關為國家科學及技術委員會(國科會),地方則為各直轄市及縣市政府;涉及各目的事業主管機關權責者,由該主管機關辦理。
理念解析:本條確立了AI發展的主責機關。選擇國科會(行政院下專司科技發展與研發的單位)為中央主管機關,體現發展與創新優先的立場,而非單純監管思維。
這點呼應了國際主流做法:日本AI推進法亦由其科技政策體系主導,法案通過後組成首相掛帥的AI戰略本部來統籌推動;南韓在《AI框架法》中也設置了國家AI委員會以統合政策。相較之下,臺灣若由數發部(三級機關)主導,因其資源與橫向協調力有限,可能失衡於管控而忽視研發。
以國科會統籌,可調動龐大科研能量與預算資源,並透過政務委員角色協調跨部會,確保科技創新與產業發展成為主軸。
第三條:人工智慧之定義
條文內容:第三條對「人工智慧」下定義:指「以機器為基礎的系統,在不同程度自主性運作下,部署後可能展現適應性,透過感測或輸入,產生預測、內容、建議或決策,以達成特定人為定義目的」。這一定義強調了機器自主性、適應性以及對現實或虛擬環境產生影響的能力。
理念解析:制定明確的AI定義有助於法律適用範圍的清晰化。此定義可謂採用國際標準做法,與歐盟《AI法案》(AI Act)對AI系統的描述相當接近。歐盟立法草案也將AI系統定義為能產出內容、預測或決策的機器式系統,並強調自主性與適應性等特徵。
本條選取較廣義且技術中立的定義,目的在於提高法律的前瞻性與包容性:既不侷限於特定技術路線,也避免因技術演進而定義過時。唯有如此,法律才能涵蓋未來新出現的AI型態。
第四條:政府推動AI應遵循的基本原則
條文內容:第四條規範政府在推動AI研發與應用時,須在兼顧社會公益、數位平權、創新研發、國家競爭力的前提下,發展良善治理與基礎建設,並遵循八大基本原則:
- 永續發展與福祉:兼顧社會公平與環境永續,提供適當教育培訓以降低數位落差,讓國民適應AI變革。
- 人類自主:支持人類自主權、人格權等基本權利與文化價值,允許人類監督,落實以人為本、尊重法治與民主價值。
- 隱私保護與資料治理:妥善保護個人資料隱私,避免資料外洩,並採資料最小化原則;同時促進非敏感資料的開放再利用。
- 智慧財產權保護:AI發展與應用應遵守智慧財產權規範,保障知識產權不受侵害。
- 資安與安全:建立資安防護措施、防範安全威脅,確保AI系統穩健安全地運作。
- 透明與可解釋:AI產出應進行適當資訊揭露或標記,以利評估風險、理解其對權益影響,提升AI可信任度。
- 公平與不歧視:儘可能避免演算法偏差與歧視風險,不得導致對特定群體的不當歧視結果。
- 問責:確保相關單位或開發者承擔內部治理與外部社會責任等相應責任。
理念解析:這八大原則奠定了AI良善治理的倫理基石。其內容與先進國家與國際組織提出的AI倫理原則高度吻合。例如,經合組織(OECD)在2019年發布的AI原則就強調:AI應促進包容與永續福祉、尊重人權和民主價值、確保透明可解釋、強化穩健安全並要求問責。
第五條:數位平權與弱勢保障
條文內容:第五條規定人民不分性別、年齡、能力、地域、族群、信仰、政治理念、社經地位等,平等享有接觸AI的機會;對於原住民、身心障礙及其他弱勢族群,應考量其自主性與特殊性,依法給予特別保障並扶助其發展。
理念解析:本條核心是數位平權(digital inclusion)理念在AI時代的體現。AI技術若只掌握在部分人手中,可能擴大數位鴻溝並加劇社會不平等。立法明訂人人平等接觸AI的權利,彰顯科技民主化的目標:不論長幼貧富、城鄉差距,每個人都應有機會獲得AI帶來的好處。
同時,條文特別點出弱勢族群(如偏鄉原住民、身障者等)的需求,這回應了先前立法討論中對弱勢保護不足的疑慮。這種設計類似我國其它基本法(如文化基本法、教育基本法)中常見的弱勢權益條款,也是對2018年行政院《臺灣AI行動計畫》中「AI全民共享」精神的延續。
第六條:防範AI濫用與未成年者保護
條文內容:第六條要求政府應避免AI應用出現危害人民生命、身體、自由、財產,破壞社會秩序或生態,以及偏差歧視、虛假廣告、資訊誤導或造假等違法情事。並為強化未成年人保護,規定對經目的事業主管機關會同數位發展部認定為高風險的AI產品或系統,應清楚標示注意事項或警語。
理念解析:本條屬於風險防範與倫理底線的範疇,確保AI技術不被濫用而損害公共利益和弱勢族群。首先,條文前段列舉了AI應用可能帶來的各種負面影響,包括人身安全、社會秩序、生態環境,以及常見於生成式AI的問題如偏見歧視、不實資訊與深偽等。
將這些風險直接納入基本法,是向社會宣示政府決心嚴防AI成為違法犯罪或侵權的新工具。近來台灣詐騙猖獗,已有不肖份子利用Deepfake聲音、影像行騙,社會各界要求政府有所作為。本條正回應此一迫切需求。
第七條:國家人工智慧戰略特別委員會
條文內容:第七條規定行政院應成立國家人工智慧戰略特別委員會,由行政院長召集,成員包括:學者專家、AI相關民間團體與產業代表、政務委員、相關部會首長或代表、直轄市與縣市政府首長等。該委員會負責協調、推動、督導全國AI事務,並制定國家AI發展綱領。
理念解析:本條建立了高層次的AI治理協調機制。行政院長親自召集,意味著AI戰略上升到國家最高決策層級,足見此議題之重要。委員會成員組成多元,涵蓋產官學研與地方政府,確保決策視野廣泛且兼顧各方。
這有助於破解過去AI政策「各自為政」的困境,因為AI跨域特性強,教育、經濟、國防、法務等領域都涉及,需要一個統一平台協調資源與政策方向。
第八條:政府帶頭的數位主權與AI應用
條文內容:第八條規定:為加速建構符合我國特色且契合國家AI戰略的AI,以確保我國數位主權並有效提升政府效能,政府機關應積極推動AI的部署與應用。
理念解析:本條強調政府做為AI應用先行者的重要性。一方面,政府廣泛導入AI,可提高公共服務效率、降低成本,例如智慧城市系統、行政流程自動化等,有助於人民直接感受到AI帶來的生活便利。
另一方面,更深一層的用意在於捍衛臺灣的數位主權與文化自主。條文中特別提及「我國特色」與「數位主權」,表示政府在推動AI時,應優先發展能展現臺灣語言、文化與價值觀的技術。
第九條:AI教育與全民數位素養
條文內容:第九條規定政府應持續推動各級學校、產業、社會及公務機關的AI教育,提升國民數位素養與AI知識技能。中央教育主管機關應為各級學校制定AI使用與學習指引,並會同相關主管機關推動產品或服務的設計與使用認證機制,確保各教育階段學生的身心安全。
理念解析:本條聚焦於人才培育與數位能力建設。AI時代最重要的資本是人,國民若欠缺AI素養,不僅無法善用新科技,反而容易受其負面影響(如遭受AI詐騙、沉迷生成內容等)。因此政府有責任在全社會推廣AI教育。
條文首先要求從中小學到大專,以及成人教育、在職訓練乃至公務員培訓,都要引入AI相關知識,形成終身學習的體系。這對於培養未來AI研發人才和使用者都是關鍵投資。
第十條:跨域合作與國際接軌的發展措施
條文內容:第十條要求政府落實AI發展政策,並鼓勵產官學界就下列事項積極跨域合作及國際交流:
- 促進AI研發創新
- 重視AI基礎教育
- 培育AI專業人才
- 推動AI產業發展
- 深化AI產學合作
- 鼓勵AI發展投資
- 建立資料中心、能源設備等AI基礎設施
- 其他AI發展政策
理念解析:本條彙集了政府在AI發展上的八大行動方向,等於勾勒出國家AI策略的主要版圖。這八點涵蓋從教育、人才、研發到產業、資本、基礎建設的各個環節,可說是對2018年《臺灣AI行動計畫》「人才培育、產業領航、創新樞紐、法規鬆綁」四大策略的延續與細化。
第十一條:寬列預算保障
條文內容:第十一條規定中央政府應在國家財政能力範圍內,寬列預算並採取必要措施,持續確保經費符合推行AI政策發展所需。
理念解析:這條款簡潔但關鍵——沒有預算,再好的政策也是紙上談兵。過去幾年臺灣在AI領域投入的資源有限,這也被認為是進展遲緩的原因之一。因此本條以法律強制力要求政府充分編列AI預算。
所謂「寬列」意味著在可能範圍內給予優先傾斜,而非消極等剩餘資源。這將大大提高AI計畫在年度預算編列時的地位,相當於給AI政策一把「預算尚方寶劍」。
第十二條:財政與誘因措施
條文內容:第十二條規定政府應積極推動AI研發、應用及基礎建設,妥善規劃資源配置,並可對AI相關產業採取補助、委託、出資、投資、獎勵、輔導等措施,或提供租稅、金融等財政優惠。
理念解析:本條授權政府運用各種政策工具來扶持AI產業與技術發展。與第十一條著重「有錢可用」不同,第十二條著重「錢該怎麼用」。首先,它列出補助、獎勵、投資等干預手段,這意味著政府不僅提供研發補助金,還可直接投資AI新創或專案。
租稅優惠則可能包括研發費用抵減、加速折舊、創投投資抵稅等,金融優惠則指提供低息貸款、信保基金等支援中小企業。這些都是國內外產業政策的常用做法,納入法律體現了立法者對產業實際需求的考量。
第十三條:法規調適與新興技術優先
條文內容:第十三條規定:政府在AI開發、訓練、測試、驗證新興技術運作影響時,應提供合理使用、扶持及補助措施,並完善AI研發應用之法規。相關法規的解釋與適用若與其他法律牴觸,在符合本法第四條基本原則前提下,應優先保障新興技術與服務之提供;必要時,修正其他法律。
理念解析:本條可說是臺灣AI基本法中最具創新、突破精神的一條,展現了與傳統監管思維不同的「沙盒精神」。其核心理念在於:法律應隨科技演進而調適,而非讓創新被舊法規綁死。
條文要求政府在面對新興AI技術時,提供合理使用的空間和相應的支援、補助,這「合理使用」可理解為在資料、智財等領域賦予研發者一定彈性。
第十四條:公私協力促進創新
條文內容:第十四條規定政府應依據公私協力原則,積極與民間共同推動AI創新運用。
理念解析:此條雖只有短短一句話,卻點出了AI發展的關鍵策略:攜手產業、民間力量。公部門與私部門各有優勢——政府有資源、政策和公共數據,企業有技術、創意和對市場的靈敏度。透過公私協力,可以形成互補合作,加速AI技術從實驗室走向現實應用。
第十五條:資料有價開放與共享機制
條文內容:第十五條第一項規定:政府基於資料具有永久性、可加解密的再利用性、價值可追溯等特性,應建立資料開放、共享及再利用機制,提升AI使用資料的可利用性,並定期檢視調整相關法令規範。第二項進一步規定:政府應致力提升我國AI使用資料的品質與數量,確保訓練結果足以展現國家多元文化價值並維護智慧財產權。
理念解析:本條是草案中極具亮點的條文,被稱為**「資料有價開放」**條款,直接擊中AI發展的命脈:資料。AI的訓練需要龐大且多元的資料集,資料愈充足、品質愈高,AI模型就愈精準有用。
過去臺灣長期面臨公共資料釋出不夠、格式不一、缺乏商業價值回饋等問題,新創和研究單位屢屢為找不到本土數據而苦惱。第十五條首段要求建立資料開放共享機制,等於是為政府資料開放提供了法律依據。
第十六條:個人資料保護與隱私內建
條文內容:第十六條規定:個人資料保護主管機關(未來的個資保護委員會)應協助各目的事業主管機關,在AI研發與應用過程中,避免不必要的個人資料蒐集、處理或利用,並促進將個資保護納入預設與設計的措施或機制,以維護當事人權益。
理念解析:本條將隱私保護融入AI發展全流程,是對第四條「隱私與資料治理」原則的具體落實。一方面,它強調資料最小化原則:AI系統的開發與運行應盡量減少涉及個人資料的部分,非必要不要收集,更不要過度利用。
另一方面,條文提及隱私預設/隱私內建(Privacy by Design),要求在AI技術設計階段就把個資保護措施納入。這概念源自國外隱私保護最佳實務,現今已成為許多法規明文規定的義務(例如歐盟GDPR第25條)。
第十七條:勞動權益與轉型措施
條文內容:第十七條共有三款:首先,政府應積極運用AI確保勞動者的勞動權益。其次,政府應主動弭平AI發展造成的技能落差,提升勞動參與、保障經濟安全,並落實尊嚴勞動。最後,政府應對因AI利用而失業者,依其能力輔導就業。
理念解析:本條針對AI對就業市場的衝擊提出了全方位對策,體現「科技進步不應以犧牲勞工為代價」的價值觀。AI固然能提高生產力,但也引發「機器取代人力」的擔憂。
條文首先要求政府善用AI保障勞動權益,這可從兩方面理解:其一,運用AI技術改進勞工權益保障措施,如利用AI監測職場安全、防止超時工作、透過大數據偵測就業歧視等;其二,制定AI相關勞動政策確保同工同酬、勞動基本保障不因AI而弱化。
第十八條:風險分類框架與國際接軌
條文內容:第十八條規定:數位發展部應協調相關機關,參考國際標準或規範,推動可與國際接軌的AI風險分類框架,並定期檢討。各目的事業主管機關得依此框架,訂定其主管業務的風險分類規範。
理念解析:本條引入風險分級管理理念,標誌著臺灣AI治理朝科學化、精細化邁進。風險分類的想法源自歐盟《AI法案》,該法按AI用途將風險分為「不可接受、高風險、有限風險、最低風險」四級,對高風險者施加較嚴格義務。
本條授權我國數位發展部主導建立一套全國統一的AI風險分類架構,並強調要與國際接軌。這點很重要:若臺灣自行其是制定完全不同的分類標準,將來國際合作或跨國企業遵循上會有困難。
第十九條:可信任AI的責任與豁免
條文內容:第十九條首先規定:政府應依AI風險分類,透過標準、驗證、檢測、標記、揭露、溯源、問責等機制,提升AI應用可信度,並建立應用條件、責任、救濟、補償或保險等規範,明確責任歸屬與歸責條件。接著但書規定:AI技術開發與研究在應用前的任何活動,除了須遵守第四條基本原則外,不適用前述應用責任相關規範,以利技術創新發展。
理念解析:本條可分兩部分理解:事中/事後的責任規範,以及研發階段的責任豁免。前段列出政府應採取的各種措施來提高AI可信任度和明確責任規則。
但書則提供安全沙盒給研究者和開發者,使他們不用擔心尚未推向市場的創新因不符合繁瑣標準而被喊卡。如此才能鼓勵大膽試驗,增加突破性進展的可能性。
第二十條:法規與機關職掌的調整落實
條文內容:第二十條規定:本法施行後,政府應依本法規定檢討並調整所主管的職掌、業務及法規,以落實本法目的。在相關法規制定或修正前,若現有法規無規定者,由中央目的事業主管機關偕同中央主管機關(國科會),依本法規定解釋、適用。
理念解析:本條確保AI基本法不會淪為紙上宣言,而是透過後續配套真正改變政府運作。首先,要求各機關對照本法自我檢視並調整職責與法規,這意味著:例如教育部需盤點其法規中有無不利AI教育推廣的部分、金管會需檢討金融相關規章以符合AI創新原則、勞動部需修訂就業服務相關規定來輔導AI失業者,等等。
第二十一條:施行日期
條文內容:第二十一條規定本法自公布日施行。
理念解析:本條無特別技術性內容,但「公布日施行」意味著立法院三讀通過、總統公告後,本法即可立即生效,顯示立法者的緊迫感與決心。相較有些法律會訂延後施行日期,本法選擇即刻生效是希望盡速發揮效用。
正如前言所述,全球AI競賽分秒必爭,臺灣不能再等待。尤其在行政部門兩度跳票、國內法規空轉多年的背景下,立法機關此舉是向國人承諾:「一旦完成立法,我們馬上行動,不讓臺灣再落後。」
結語
綜觀《人工智慧基本法》草案各條,可以看出立法設計上**「促進發展」與「因應風險」並重**的用心:前半部強調發展導向與倫理原則,後半部建構配套措施與治理框架,兩者相輔相成。
在國際比較上,臺灣此版本基本法在理念上接軌美日等創新友善模式(如鼓勵實驗、自律指引),在治理工具上亦參考歐盟風險規範元素(如分類、標示、問責),可謂融合各家所長,創造符合我國國情的平衡路線。
面對中國大陸大舉倡議開源共享、降低壁壘的全球AI佈局,我們以更開放創新的條文力求不輸在起跑點;針對對岸可能的過度管控,我們則以柔性治理和產業自律來保持競爭活力,走出自己的民主創新之路。
這部寫給未來10年的AI憲章,將引領臺灣在國際AI競逐中迎頭趕上,為經濟注入新動能,為社會帶來新福祉。立法院和政府各部門唯有協力落實本法,才能向國人展現臺灣有能力用法律給世界一個「臺灣速度」,在AI時代脫穎而出!
📥 相關資源下載
📄 人工智慧基本法原始文件
-
📄 DOCX 版本 - 人工智慧基本法-國民黨12個委員提案版本之彙整版
-
📋 PDF 掃描簽名版 - 人工智慧基本法-國民黨12個委員提案版本之彙整版
📖 詳細解析文件
- 📚 好讀版 PDF - 臺灣《人工智慧基本法》逐條說明及理念解析