为了提高人工智能的安全性和透明度,谷歌最近推出了三种新的人工智能生成模型。这些模型是谷歌 Gemma 2 系列的一部分,旨在比许多现有模型更安全、更高效、更透明。
该公司网站上的一篇博文称,新模型--Gemma 2 2B、ShieldGemma 和 Gemma Scope--建立在今年 5 月推出的原始 Gemma 2 系列所建立的基础之上。
与谷歌的 Gemini 模型不同,Gemma 系列是开源的。这种做法与 Meta 的 Llama 模型战略如出一辙,旨在为更多受众提供易用、强大的人工智能工具。
Gemma 2 2B 是一个用于生成和分析文本的轻量级模型。它用途广泛,可以在各种硬件上运行,包括笔记本电脑和边缘设备。它能够在不同的环境中运行,因此对于寻求灵活的人工智能解决方案的开发人员和研究人员来说,它是一个极具吸引力的选择。
同时,ShieldGemma 模型侧重于通过作为安全分类器的集合来提高安全性。ShieldGemma 用于检测和过滤有毒内容,包括仇恨言论、骚扰和色情内容。它在 Gemma 2 的基础上运行,提供了一层对当今数字环境至关重要的内容节制。
据谷歌介绍,ShieldGemma 可以过滤生成模型的提示和生成的内容,使其成为维护人工智能生成内容完整性和安全性的重要工具。
Gemma Scope 模型允许开发人员深入了解 Gemma 2 模型的内部运作。据谷歌介绍,Gemma Scope 由专门的神经网络组成,有助于解读 Gemma 2 处理的密集、复杂的信息。
通过将这些信息扩展为更易于解释的形式,研究人员可以更好地了解 Gemma 2 是如何识别模式、处理数据和进行预测的。这种透明度对于提高人工智能的可靠性和可信度至关重要。
谷歌推出这些模型之前,微软工程师谢恩-琼斯(Shane Jones)曾发出警告,对谷歌人工智能工具创建暴力和性图像以及无视版权的行为表示担忧。
在发布这些新模型的同时,美国商务部也发布了一份初步报告,支持开放人工智能模型。该报告强调了让小型公司、研究人员、非营利组织和个人开发者更容易获得生成式人工智能的好处。
不过,报告也强调了监控这些模型潜在风险的重要性,强调了像 ShieldGemma 所实施的安全措施的必要性。
© 2025 DeFi.io