在過去的一年半裡,微軟一直走在生成式人工智能開發的前沿。該公司與OpenAI等合作夥伴合作,將其Copilot生成式人工智能助手添加到許多產品和服務中,並將推出更多產品和服務。此外,該公司還在開發自己的人工智能大型語言模型,例如最近發佈的輕量級LLMPhi-3系列。
所有這些活動也讓許多人感到擔憂,認為像微軟 開發的人工智能工具可能會被用於不道德或非法行為。今天,微軟在一篇博客文章中宣佈,它已經發佈第一份計劃中的年度透明度報告,介紹其目前負責任的人工智能實踐。
微軟總裁 Brad Smith 在博文中表示:
這份報告使我們能夠分享我們日趨成熟的實踐,反思我們所學到的東西,規劃我們的目標,對自己負責,並贏得公眾的信任。八年來,我們一直在負責任的人工智能領域不斷創新,在發展我們的計劃的同時,我們也從過去的經驗中吸取教訓,不斷改進。
這份PDF格式的報告詳細介紹微軟 在多個領域為其服務提供負責任的人工智能實踐,並對員工進行使用培訓。報告指出:
2023 年版的《商業行為標準》培訓是全公司必修的商業道德課程,涵蓋我們的員工用於安全開發和部署人工智能的資源。截至 2023 年 12 月 31 日,99% 的員工完成這一課程,包括負責任的人工智能模塊。
微軟還成立負責任的人工智能委員會,定期召開會議,目的是不斷改進工作,確保人工智能服務的安全。公司還有一個"負責任的人工智能冠軍"計劃,要求其成員發現並解決人工智能產品中存在的問題,並就負責任的做法向其他成員提供指導。
報告還舉例說明負責任的人工智能程序如何影響其產品的創建和開發。其中一個例子涉及微軟 Designer,這款人工智能圖像創建應用程序據說被不明人士用來制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度偽造"圖像,後來在互聯網上瘋傳。
微軟說,它要求新聞團體 NewsGuard 在 Designer 中輸入提示,"創建強化或描繪與政治、國際事務和選舉有關的突出虛假敘述的視覺效果"。結果,在 Designer 創建的圖片中,有 12%"包含有問題的內容"。微軟對 Designer 進行修改,試圖避免出現這些圖片,效果是有問題圖片的數量降到3.6%。
解更多:
https://blogs.microsoft.com/on-the-issues/2024/05/01/responsible-ai-transparency-report-2024/