AI 素養與倫理
AI 素養與倫理是指能理解 AI 如何產生結果、辨識其中的風險與偏誤,並在使用過程中遵循公平、透明、隱私與責任等原則,使 AI 成為值得信賴的協作工具。面對 AI 工具快速推陳出新,我們希望一起建立共同語言與清楚的使用規範,並以教育為核心,從課堂學習到行政管理,共同思考與討論,形成一套合理、可落地的使用方法,讓 AI 的導入既提升學習與工作效能,也能兼顧安全、倫理與治理。
為什麼需要 AI 素養?
AI 可以加速整理、發想與撰寫,但也可能產生錯誤資訊、洩漏敏感資料或放大偏誤;建立正確使用習慣,才能兼顧效率與可信度。
快速檢核清單(交付前 30 秒)
- 可驗證:關鍵數字、引用、定義是否有來源或可查證?
- 不外洩:是否輸入了個資、機密、未公開資料或可識別內容?
- 你負責:結論是否由你判斷、而不是讓 AI 代替決策?
- 可揭露:是否依規範標註 AI 協助的範圍與方式?
四個常見風險與做法
1. 幻覺(Hallucination)
錯誤卻很肯定AI 可能以很確定的語氣生成不正確內容,因此關鍵資訊不能直接當作事實或學術證據。
- 把「結論」拆成可查證的子主張逐一驗證
- 遇到數字/引用/法規:一定要回到原始來源
- 要求 AI 提供「不確定點」與「可能替代解釋」
2. 資料隱私(Privacy)
不要輸入敏感內容部分 AI 服務可能用對話進行改進或留存紀錄,所以避免輸入個資、機密或未公開研究資料。
- 把人名/學號/地址改成代號或去識別化
- 公司/實驗室資料:先確認是否允許外部工具處理
- 需要摘要機密:改用本地端或內部核准方案
3. 人機協作(Collaboration)
你是主駕把 AI 當成助理:你負責定義問題、判斷品質與最後把關,避免把決策主導權交出去。
- 先給目標、限制、評分標準,再請 AI 產出
- 用「對照版本」:請 AI 產出兩種立場再比較
- 保留你自己的推理:不要只貼答案
4. 學術引用(Citation)
可追溯與可揭露在作業或論文中使用 AI 協助時,依學校或期刊規範清楚標註「使用範圍」與「你做了什麼判斷」。
- 描述用途:發想/潤稿/摘要/程式輔助等
- 標註關鍵產出:哪些段落或分析由 AI 協助
- 引用仍以原始文獻為主,不引用 AI 當作來源