AI 素養與倫理

AI 素養與倫理是指能理解 AI 如何產生結果、辨識其中的風險與偏誤,並在使用過程中遵循公平、透明、隱私與責任等原則,使 AI 成為值得信賴的協作工具。面對 AI 工具快速推陳出新,我們希望一起建立共同語言與清楚的使用規範,並以教育為核心,從課堂學習到行政管理,共同思考與討論,形成一套合理、可落地的使用方法,讓 AI 的導入既提升學習與工作效能,也能兼顧安全、倫理與治理。

適用:作業 / 報告 / 研究 重點:查證、隱私、責任、可追溯

為什麼需要 AI 素養?

AI 可以加速整理、發想與撰寫,但也可能產生錯誤資訊、洩漏敏感資料或放大偏誤;建立正確使用習慣,才能兼顧效率與可信度。

快速檢核清單(交付前 30 秒)

  • 可驗證:關鍵數字、引用、定義是否有來源或可查證?
  • 不外洩:是否輸入了個資、機密、未公開資料或可識別內容?
  • 你負責:結論是否由你判斷、而不是讓 AI 代替決策?
  • 可揭露:是否依規範標註 AI 協助的範圍與方式?

四個常見風險與做法

1. 幻覺(Hallucination)

錯誤卻很肯定

AI 可能以很確定的語氣生成不正確內容,因此關鍵資訊不能直接當作事實或學術證據。

  • 把「結論」拆成可查證的子主張逐一驗證
  • 遇到數字/引用/法規:一定要回到原始來源
  • 要求 AI 提供「不確定點」與「可能替代解釋」

2. 資料隱私(Privacy)

不要輸入敏感內容

部分 AI 服務可能用對話進行改進或留存紀錄,所以避免輸入個資、機密或未公開研究資料。

  • 把人名/學號/地址改成代號或去識別化
  • 公司/實驗室資料:先確認是否允許外部工具處理
  • 需要摘要機密:改用本地端或內部核准方案

3. 人機協作(Collaboration)

你是主駕

把 AI 當成助理:你負責定義問題、判斷品質與最後把關,避免把決策主導權交出去。

  • 先給目標、限制、評分標準,再請 AI 產出
  • 用「對照版本」:請 AI 產出兩種立場再比較
  • 保留你自己的推理:不要只貼答案

4. 學術引用(Citation)

可追溯與可揭露

在作業或論文中使用 AI 協助時,依學校或期刊規範清楚標註「使用範圍」與「你做了什麼判斷」。

  • 描述用途:發想/潤稿/摘要/程式輔助等
  • 標註關鍵產出:哪些段落或分析由 AI 協助
  • 引用仍以原始文獻為主,不引用 AI 當作來源