開源AI資料庫遭控含有兒童色情素材 LAION緊急下架審查

外電報導,史丹福大學網路觀察站最近在大型AI開源資料庫LAION中,發現高達3200張疑似兒童色情的影像。

該資料庫使用同為開源資料庫的Common Crawl來抓取網路上可公開存取的影像,讓AI對圖片內容及文字進行學習,其創造初衷是為了避免AI發展遭到少數企業壟斷,目前主要被用於訓練Stable Diffusion等AI製圖工具。

經過史丹福大學網路觀察站和加拿大兒童保護中心等社福團體合作辨識後,確認其中約有1000張涉及兒童色情。

美聯社報導,相關研究人員發現AI經過學習後,能夠結合一般的兒童照片與成人色情影像,進一步生成出兒童色情內容,但史丹佛大學網路觀察站指出,LAION和部分AI的訓練素材中包含真實的兒童色情影像。

雖然這些影像僅佔LAION約58億張影像資料庫中的一小部分,但史丹佛大學網路觀察站指出,這些影像可能會導致AI生成有疑慮的影像內容、使真實受害者受到二次傷害。

Common Crawl的執行董事斯克倫塔(Rich Skrenta)指出,「LAION有責任在使用我們的資料庫前進行過濾。」

LAION隨即將該資料庫暫時下架,並聲明他們對違法內容的零容忍態度,預計在1月下旬前完成安全審查後再重新發布。

「這不是一個容易解決的問題。」史丹佛大學網路觀察站的技術長蒂爾(David Thiel)指出,「生成式AI的競爭激烈,許多AI倉促上市並被廣泛使用。」

為此相關組織正積極敦促AI開發者與公司排除不良的訓練素材、撤下缺乏良好過濾器且被濫用的AI工具,以解決AI技術濫用導致的道德問題。

反兒童色情組織Thorn的資料科學主管波特諾夫(Rebecca Portnoff)表示,「雖然AI生成影像並不是主流的兒童色情內容,但根據我們的研究它持續在增長。」

更多公視新聞網報導
開源AI資料庫遭控含有兒童色情素材 LAION緊急下架審查
歐盟AI法案達里程碑協議 明定限制生物辨識等監管規則
生成式AI問世1週年用戶上億 2032年產業規模估翻9倍