嗨,早!
上週 OpenAI 推出影片生成模型 Sora,AI 生成內容從文字、圖像升級到了影片時代。Sora 能夠依據文字敘述,在短短幾秒內產出高品質影片。不難想像,未來各領域的專業人士能夠以 Sora 說明抽象概念,但它也可能被有心人士利用。
能夠辨別數位世界中的真實與虛構非常重要。只是當前可用的工具還相當有限,人們想要辨識眼前所見是否為 AI 生成,如果單靠肉眼或是憑直覺,無異於跑步就想追上火車。
這篇文章主角 C2PA 號稱是「數位內容的生產履歷」,幫助人們追蹤內容來歷、辨別資訊真偽,更已經成為 OpenAI、Google 和微軟共同採用的標配。
真假難辨
許多人都曾聽過這樣的故事,家中長輩接起一通來自陌生號碼的電話,電話另一頭傳來人的哭聲,聽起來似乎是自家兒女。情急之下,長輩趕緊匯款,想早點幫孩子解圍,最後才發現受騙上當。
要憑空創造一個人的聲音相當容易。例如 Respeecher 主打只要輸入一段語音,就可以替你變聲,效果等同把你說的話塞進別人嘴裡,甚至換一種語言都可以。下方這段影片就把一位講英文的男性,換成了一位講法文的女性。如果區塊勢透過這個工具推出女聲朗讀服務,可能會讓人以為區塊勢的作者是女生。
聲音比文字更容易博取信任,如果加上畫面,可信度還會更高。無論是聲音、影片,現在都可以透過技術憑空捏造得栩栩如生。OpenAI 就將 Sora 稱為物理世界的模擬器,能依照使用者的指令創造出逼真的場景,且遵守物理定律。下方這段描繪 19 世紀美國加州的淘金潮影片,如果沒有特別註明,大概不會有人發現是由 Sora 生成。紀錄片不都長這樣嗎?
面對大量 AI 生成的內容,人們已經無法憑感官分辨真實與虛構,猶如顛覆數千年來的人類演化。雖然 Respeecher 禁止使用者模擬美國總統的聲音,OpenAI 也不會替人們移花接木。但由上而下的管制效果終究有限,C2PA 採取另一種做法 —— 不主動判斷內容真偽,而是替數位內容加上「生產履歷」。
生產履歷
C2PA 是內容出處和真實性聯盟(The Coalition for Content Provenance and Authenticity)的縮寫。聯盟以 Adobe 為首,目前已經有數千家企業加入。C2PA 在做的事情很單純,就是呼籲人們在閱讀數位內容之前,要先注意它的「生產履歷」。根據 OpenAI 的介紹:
C2PA 是一種開放技術標準,讓企業、媒體或其他人在影音內容中嵌入能溯源的元資料。C2PA 不只適用於 AI 生成的圖片,相機製造商、新聞機構也都能採用相同標準為影音補上來歷 ... 人們可以使用 Content Credentials verify 網站來檢查圖片是否透過 OpenAI 的工具產生 ... 除非元資料已被刪除。
實際動手做一次最快。下方是我用 DALL·E 隨手產生的圖像。只要將這張圖丟到 Content Credentials 網站驗證,就會出現這張圖的創建者、產出時間以及修改歷程。
這些內容似曾相識。手機照片的詳細資料欄位不就是記載類似的東西嗎?照片是什麼時候、在哪個地點、由什麼裝置拍攝,連光圈大小、使用濾鏡都記得一清二楚。這些就是照片的元資料。如果時間、地點錯了,還可以手動調整。
C2PA 也是影音內容的元資料,但使用者不能修改所記載的內容。假如未來社群網站、搜尋引擎都支援顯示 C2PA 資訊,那麼人們在網路上觀看數位內容,就好像是在超市裡選購商品。假如商品包裝完整,還附上生產履歷,消費者就會覺得產品禁得起檢驗。反之,如果商品是散裝、裸賣,缺乏標示,就會讓消費者懷疑。
Keep reading with a 7-day free trial
Subscribe to 區塊勢 to keep reading this post and get 7 days of free access to the full post archives.