AI

ubuntu neo4j安装

在Ubuntu上安装Neo4j数据库,你可以通过多种方式完成,包括使用官方的APT仓库、下载二进制文件或者直接使用Docker容器。下面是每种方法的详细步骤: 方法1:使用官方的APT仓库 添加Neo4j的APT仓库 打开终端,...

ollama gpu设置

默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环...

ollama 开放外部访问

要开放 Ollama 的外部访问,使其可以被局域网或外网访问,需要进行以下配置: 1. 设置 OLLAMA_HOST 环境变量 默认情况下,Ollama 仅监听 127.0.0.1:11434,要允许外部访问,需修改 OLLAMA_HOST: bash ...

如何自行训练开源的大模型

自行训练开源的大型模型(如 GPT、LLaMA、BLOOM 等)是一个复杂的过程,需要技术知识、硬件资源和时间。以下是详细的步骤和注意事项: 1. 准备工作 1.1 硬件需求 GPU:训练大模型需要高性能 GPU(如 NVI...

Ollama Page Assist

Page Assist 是一款开源的浏览器扩展程序,主要为本地 AI 模型提供直观的交互界面,让用户可以在任何网页上与本地 AI 模型进行对话和交互。 基本功能 侧边栏交互:用户可以在任何网页上打开侧边栏,与本...

Ollama Open WebUI

Open WebUI 用户友好的 AI 界面(支持 Ollama、OpenAI API 等)。 Open WebUI 支持多种语言模型运行器(如 Ollama 和 OpenAI 兼容 API),并内置了用于检索增强生成(RAG)的推理引擎,使其成为强大的 AI 部署...

Ollama Python 使用

Ollama 提供了 Python SDK,可以让我们能够在 Python 环境中与本地运行的模型进行交互。 通过 Ollama 的 Python SDK 能够轻松地将自然语言处理任务集成到 Python 项目中,执行各种操作,如文本生成、对话生成...

Ollama API 交互

Ollama 提供了基于 HTTP 的 API,允许开发者通过编程方式与模型进行交互。 本文将详细介绍 Ollama API 的详细使用方法,包括请求格式、响应格式以及示例代码。 1. 启动 Ollama 服务 在使用 API 之前,需要...

Ollama 模型交互

Ollama 提供了多种方式与模型进行交互,其中最常见的就是通过命令行进行推理操作。 1. 命令行交互 通过命令行直接与模型进行交互是最简单的方式。 运行模型 使用 ollama run 命令启动模型并进入交互模式...