今天早上早些时候,谷歌宣布了Gemini,这是一个先进的轻量级开放模型家族,它使用了与创建Gemini模型相同的研究和技术。
谷歌表示,受到Gemini的启发,谷歌DeepMind和其他谷歌团队合作开发了Gemini,Gemini在拉丁语中的意思是“宝石”。
随着模型权重的发布,一系列工具也被推出,以支持开发人员的创新,促进协作,并指导开发人员如何负责任地使用Gemma模型。
根据谷歌的说法,Gemma将从今天开始在全球范围内上市。模型将在两个体重秤发布:Gemma2B和Gemma
7B.每个量表都有预先训练和指导微调的版本。
新的负责任的生成式AI工具包,用于使用Gemma创建更安全的AI
该应用程序提供指导和必要的工具。我们正在为所有主要框架(JAX,PyTorch和
TensorFlow)提供了一个用于推理和监督微调(SFT)的工具链。“
同时,该模型与Colab和Kaggle笔记本电脑,以及HuggingFace,MaxText和NVIDIA合作。
流行的工具集成,如NeMo,可以轻松开始使用Gemma。
更重要的是,Gemma模型经过预训练和指令微调,可以在笔记本电脑、工作站或GoogleCloud上运行,并可以轻松部署在VertexAI上。
GoogleKubernetesEngine(GKE).
在性能方面,Gemma在关键基准测试中的表现优于大型机型,同时遵守我们对安全和负责任输出的严格标准。
对于开发人员,Google解释说,开发人员可以根据自己的数据微调Gemma模型,以满足特定的应用需求,例如摘要或检索增强生成(RAG)。Gemma
支持多种工具和系统:
多框架工具:Gemma提供Keras3.0、原生PyTorch、JAX和HuggingFaceTransformers
多个框架的参考实现,您可以在其中选择熟悉的框架进行推理和微调。
跨设备兼容性:Gemma模型可以在笔记本电脑、台式机、物联网、移动设备和云端等多种主流设备类型上运行,支持广泛的AI功能。
尖端的硬件平台:我们与NVIDIA合作,使用NVIDIAGPU优化Gemma模型,以确保业界领先的性能和尖端技术的集成。
基于GoogleCloud的优化:VertexAI提供广泛的MLOp
具有一系列微调选项的工具集和具有内置推理优化的单击式部署。您可以使用完全托管的VertexAI工具或自我管理的GKE
在您选择的GPU、TPU或CPU基础架构上进行高级定制和经济高效的部署。
在负责任的方面,Gemma在设计时将AI原则放在首位。让珍玛
预先训练的模型是安全可靠的,Google使用自动化技术从训练集中过滤掉某些个人信息和其他敏感数据。此外,我们还进行了大量的微调和人工反馈强化学习(RLHF),以使指令微调模型与负责任的行为保持一致。
谷歌表示,它进行了强有力的评估,以了解和减轻Gemma带来的风险,包括手动红队测试,自动对抗测试和危险活动的模型能力评估。