安装自己的AI大模型最新 ollama3.1

简介

       目前最新发布的开源大模型ollama-3.1已轻松超过GPT-4、cloude3.5等主流大模型,可本地安装,可离线使用,并且无限制,可问各种禁忌问题。ollama-3.1分三种数量级版本:

  • ollama3.1    8B
  • ollama3.1    70B
  • ollama3.1    405B

个人使用请安装ollama3.1 8B
最低硬件要求:8G以上显存+16G内存,硬盘空间至少20G

下面介绍两种安装方法:

  • 原生安装
  • GPT4All工具可视化安装

【官方网址】https://ollama.com

原生安装步骤

  1. 下载系统版本安装包
    打开:https://ollama.com/library/llama3.1

  2. 安装

  3. 打开cmd输入【ollama】指令,返回这些系统版本安装成功。

  4. 配置环境变量,可将模型安装到指定的目录
    在系统环境变量(S)点击“新建”添加新变量,注意:不是path环境变量。路径自定义。如果默认安装,可以跳过这一步。

    • 变量名:OLLAMA_MODELS
    • 变量值:D:\Ollama\Models

    设置完后可以在cmd中检查一下,输入以下指令,返回路径即配置正确

 echo %ollama_models%

    5. cmd终端安装大模型,根据自己的现存大小安装适合自己的模型ollama或者deepseek。

- 8b(个人版):8G的显存
- 70b(企业级):70-75 GB 显存
- 405b(超大企业级):400-450 GB 显存

    6. ollama三种参数级,deepseek六种参数级,选其一即可。安装指令:

 # ollama
 ollama run llama3.1:8b       #8b(个人版)
 ollama run llama3.1:70b      #70b(企业级)
 ollama run llama3.1:405b     #405b(超大企业级)

 # deepseek-r1
 ollama run deepseek-r1:1.5b  #1.5b(个人)
 ollama run deepseek-r1:7b    #7b(个人)
 ollama run deepseek-r1:8b    #8b(个人)
 ollama run deepseek-r1:14b   #14b(个人)
 ollama run deepseek-r1:32b
 ollama run deepseek-r1:70b   #70b(企业级)

   过程会有点长耐心等下载,下载完成并进行使用。

使用指令说明

ollama run llama3.1:8b         #启动ollama运行模型
ollama serve                   #启动 ollama 服务模式
/show                          #显示模型信息
/list                          #列出模型
ollama ps                      #列出正在运行的模型
ollama rm llama3.1:70b         #删除模型
ollama help                    #关于任何命令的帮助

GPT4All可视化工具安装

  1. 打开GPT4All官网:https://www.nomic.ai/gpt4all

  2. 直接默认下一步安装就行,安装后,看图操作,指定模型安装位置

  3. 开始安装模型,开启科学上网会快很多,如果没有,建议晚上睡觉的时候下载。

  4. 加载模型好了之后愉快可以愉快玩耍了,更多高级功能,比如如何建立自己的知识库等,可以加入交流群互相学习谈论。

总结

       至此本地安装已经完成,并可以使用,如果电脑配置高,使用起来会很流畅,如果配置低,建议使用在线版,在线版需要科学上网和注册账号。很简单请自行操作。
在线使用网址:https://huggingface.co/chat