負責任的人工智慧重要性:益處、原則和合規性
為什麼負責任的人工智慧如此重要?

重點總結
- 負責任的人工智慧對於確保人工智慧系統的開發和使用符合倫理和法律至關重要。除了確保合規性之外,負責任的人工智慧還能帶來經濟效益並建立更大的信任。
- 為確保人工智慧得到安全負責地應用,各組織必須考慮其人工智慧系統如何管理隱私和安全風險、如何遵守道德規範以及如何滿足監管要求。
- 檢查您所實施的 AI 技術和供應商是否透過 ISO/IEC 42001 等認證(世界上第一個 AI 管理系統標準)對負責任的 AI 開發負責。
- Liferay 致力於在我們自己的 AI 管理系統 (AIMS) 中堅持負責任的 AI 原則,並通過了 ISO/IEC 42001 認證,這為我們負責任地擴展 AI 工作以及應對快速發展的 AI 治理和監管環境奠定了堅實的基礎。
負責任的人工智慧的重要性
人工智慧(AI) 為金融、醫療保健、製造業等眾多產業帶來了驚人的效率和創新。然而,採用人工智慧系統需要確保這些工具的開發和使用符合倫理、安全可靠。僅僅使用人工智慧是不夠的,企業更需要負責任地使用人工智慧。
負責任的人工智慧為何如此重要?
隨著人工智慧技術在日常營運中變得越來越重要,越來越需要推動負責任的人工智慧實踐,以管理和控制人工智慧的使用和發展。
根據國際標準化組織的定義,負責任的人工智慧是指以合法、合乎道德的方式開發和使用人工智慧系統,從而造福社會,同時最大限度地降低負面後果的風險。
負責任的人工智慧有哪些好處?
優先發展負責任的人工智慧不僅有助於確保遵守全球法規並減少代價高昂的訴訟,而且推動負責任的人工智慧還可以:
- 降低使用人工智慧解決方案時可能出現的偏見和潛在風險。事實上,普華永道的一項研究發現,積極實踐人工智慧的組織可以將人工智慧相關不良事件的發生頻率降低多達一半。而且,即使這些事件確實發生,他們也能更快地挽回經濟損失。
- 根據普華永道進行的同一項研究,這些組織透過提供財務收益,其收入比僅投資於合規的公司高出 4%。
- 建立公眾和員工信任。投資負責任人工智慧的公司,其信任度比同業高出7%。
負責任的人工智慧系統的關鍵原則
如何確保人工智慧得到負責任的採納和使用?請檢查以下人工智慧系統是否:
管理隱私和安全風險
如果安全措施不到位,人工智慧系統可能會帶來新的網路風險和漏洞。例如,以下是一些與生成式人工智慧相關的關鍵風險:
| 資料外洩 | 人工智慧系統依賴海量資料。如果訓練資料沒有得到妥善保護,它們就很容易成為網路犯罪分子的攻擊目標,導致個人和敏感的客戶或企業資料外洩 |
| 資料洩漏 | 與資料外洩不同,資料洩漏是指敏感資料意外暴露。例如,ChatGPT曾向使用者顯示了其他使用者對話記錄的標題。 |
| 資料處理 | 攻擊者可以破壞人工智慧系統的完整性和效能。透過注入惡意資料甚至篡改模型本身,這些攻擊者可以操縱模型的行為和輸出,從而達到有害目的。 |
| 未經授權的資料收集和使用 | 人工智慧模型可能在沒有適當法律依據的情況下收集資料,或將其用於超出最初意圖的目的,從而導致侵犯隱私。 |
企業領導者可以製定人工智慧安全方法來幫助保護使用者的資料和隱私,包括進行風險評估、確認適當的法律依據、遵循安全最佳實踐以及為敏感資料提供更多保護。
遵守人工智慧倫理
人工智慧的倫理考量包括偏見和歧視,因為人工智慧可能會利用帶有偏見的資料或錯誤訊息,使不公平的模式持續存在。聯合國教科文組織指出,指導人工智慧倫理使用的四大核心價值包括尊重人類、個人、社會和環境的福祉。正如微軟執行長薩蒂亞·納德拉所說:“人工智慧將成為解決世界重大問題的重要組成部分,但其發展方式必須體現人類價值觀。”
例如,如果人力資源團隊使用機器學習演算法來識別潛在候選人,但該招聘演算法發現過去成功的候選人大多是男性,那麼它可能會偏袒或只優先考慮男性申請人。
認識到無意識聯想如何影響人工智慧模型並導致輸出結果偏差至關重要。負責任的人工智慧開發應包括識別偏差來源、創建包容性提示,並確保在人工智慧生命週期的整個階段(從研發到部署和維護)都有人工監督。
此外,人工智慧已被惡意用於諸如深度偽造之類的技術,這引發了人們對使用者是否同意某些內容的倫理擔憂。倫敦國王學院網路安全研究小組的提姆史蒂文斯博士指出,深度偽造不僅會欺騙和損害個人形象,如果被用於煽動政治爭論或謀取私利,還會對國家安全構成嚴重威脅。
正如斯里·阿米特·雷在他的著作《倫理人工智慧系統:框架、原則和高級實踐》中所說,“倫理是引導人工智慧走向負責任和有益結果的指南針。如果沒有倫理考量,人工智慧就會成為混亂和傷害的工具。”
符合監理要求
人工智慧合規是指確保所有人工智慧系統均符合適用法律法規的過程。合規不僅對於保護使用者安全和隱私至關重要,還能幫助組織規避潛在的法律和財務風險。
與指數級增長的創新速度相比,人工智慧治理和監管仍然滯後,但其中一項至關重要的立法是歐盟《人工智慧法》。 2021年,歐盟委員會推出了全球首個全面的人工智慧監管框架。歐盟《人工智慧法》根據人工智慧系統對使用者構成的風險對其進行分類,將應用風險從低到高劃分,並對高風險應用施加更嚴格的監管。例如,用於管理公共服務和福利或評估求職者資料的高風險人工智慧系統,在投入市場使用前必須經過評估。
儘管其他地區和國家對人工智慧立法持有不同看法,但隨著人工智慧的不斷發展和創新,毫無疑問,未來將會有更多相關法規出台。為了真正負責任地使用人工智慧,各組織需要保持警惕,積極應對並遵守不斷變化的法律和法規。
推動負責任的人工智慧
人工智慧持續加速發展,只會加劇隨之而來的風險和不確定性,因此需要製定相應的監管措施。由此,確保您所採用的人工智慧技術和供應商履行負責任的開發責任就顯得尤為重要。
識別這些合作夥伴的一個關鍵方法是尋找ISO/IEC 42001等認證,這是世界上第一個人工智慧管理系統標準。
什麼是 ISO/IEC 42001?
該框架旨在幫助組織建立、實施、維護和改進人工智慧管理系統。它確保組織致力於負責任且合規的人工智慧開發、設計和使用,具體包括:
- 建立人工智慧管理系統(AIMS),這是一個用於管理人工智慧專案、人工智慧模型和整合人工智慧工具的結構化框架。
- 人工智慧風險管理,用於識別、評估和減輕相關風險,包括偏見和資料保護。
- 鼓勵透明度和公平性的人工智慧倫理原則。
- 監測和改進人工智慧性能並完善策略。
- 透過讓合規團隊和利害關係人參與,促進負責任的人工智慧發展,他們可以教育整個組織如何持續安全地開發和使用人工智慧技術。
獲得此項認證表明組織致力於負責任且合規的人工智慧開發、設計和使用。這表明這些組織積極採取措施,確保合規並降低風險,從而建立信任,為未來的法律要求做好準備,並最終獲得人工智慧領域的競爭優勢。
Liferay 中如何負責任且安全地利用人工智慧
為了幫助企業打造卓越的數位體驗,Liferay 已在其平台中融入人工智慧技術,以推動創新並為客戶創造更大價值。然而,Liferay 也意識到客戶需要值得信賴的人工智慧,並希望供應商能夠解決倫理問題、潛在的安全風險以及法律合規性問題。
目前,Liferay 的平台以「自備 AI (BYO-AI)」模式幫助使用者整合負責任的 AI,而非直接提供 AI 系統,詳情請參閱本文件。然而,Liferay 致力於在其自身的 AI 管理系統 (AIMS) 中貫徹負責任的 AI 原則,並通過了ISO/IEC 42001 認證。該認證為我們負責任地擴展 AI 業務以及應對快速變化的 AI 治理和監管環境奠定了堅實的基礎。
我們的人工智慧管理系統(AIMS)經過全面設計和認證,涵蓋我們未來可能整合到產品中的人工智慧功能,包括透過整合獲得的人工智慧功能。團隊將持續監控並定期進行審核,以確保我們的人工智慧系統保持公平、透明和安全。同時,我們的員工也將接受定期培訓,以確保他們了解負責任的人工智慧實踐。
點擊此處了解更多關於 Liferay 的 AIMS 及其對負責任的 AI 的承諾。