就在最近,谷歌推出了其首款开源人工智能模型Gemma,有两种尺寸:Gemma 2B 和 7B。该模型非常适合英语中的创造性任务,如文本生成、摘要、基本推理等。由于其体积小,该模型可以在没有互联网连接的低资源计算机上下载并本地使用。这是我们在 Windows、macOS 和 Linux 上下载并运行 Google Gemma AI 模型的教程。
下载 Google Gemma 2B 模型
- 继续在您的计算机上下载LM Studio(免费)。接下来,启动该程序。
- 在主页上,您会找到“ Google’s Gemma 2B Instruct ”模型。您也可以手动搜索“Gemma”。现在,打开它。
- 接下来,只需单击“下载”即可。这是一个1.5GB 的文件,因为 Gemma 2B 模型已经过 4 位量化,以压缩模型大小并减少内存使用。如果您有 8 GB 以上 RAM,则可以下载 8 位量化模型 (2.67GB),这将提供更好的性能。
使用 LM Studio 离线运行 Google Gemma
- 在 LM Studio 中,移至左侧的“聊天”窗口。
- 之后,单击“选择要加载的模型”并选择“gemma”。它将消耗大约 1.4GB RAM。
现在,请继续提出您的问题。根据我的经验,微型 2B Gemma 模型非常适合英语中的创造性任务。它拒绝回答任何就任何主题征求意见的有价值的事情(例如,C 比 Rust 更好吗?)。
您还可以在右侧设置系统提示来自定义AI模型的行为。
这就是您在 PC、Mac 和 Linux 计算机上下载并运行 Google Gemma 模型的方法。
暂无评论