負責任的生成式 AI 工具包
工具和指南:秉持負責態度設計、建構及評估開放式 AI 模型。
對齊模型
使用提示和調整技巧,確保模型符合特定安全性政策。
開始使用
調整模型以確保安全
根據安全和內容政策調整模型,藉此控制模型行為。
調查模型提示
透過學習技術可解釋性工具 (LIT) 不斷改善,建立安全且實用的提示。
評估模型
運用我們的指南和工具,評估模型在安全性、公平性和事實準確性方面的風險。
開始使用
大型語言比較表
使用 LLM 比較工具並排評估,以評估模型之間的回應差異、同一個模型的不同提示,甚至是模型的不同調整
使用安全防護措施
篩選應用程式的輸入和輸出內容,並保護使用者免於遭遇不良結果。
開始使用
SynthID 文字
用於為模型產生的文字加上浮水印,並偵測這些文字。
ShieldGemma
以 Gemma 2 為基礎的一系列內容安全分類器,提供三種大小:2B、9B、27B。
靈活分類器
使用參數高效調整 (PET) 並使用相對較少的訓練資料,為特定政策建立安全性分類器
檢查 AI 安全
透過 API 和監控資訊主頁,確保 AI 安全性符合內容政策。
文字管理服務
使用這個 Google Cloud Natural Language API 偵測安全屬性清單,包括各種可能有害的類別和可能較敏感的主題,且在特定用量限制下可免費使用。
Perspective API
使用這款免費的 Google Jigsaw API,識別「惡意」留言,緩解線上有害言論,確保使用者健康言論。