需要大模型处理的 Function Calling 完整实现 下面我将展示一个完整的需要大模型智能处理的 Function Calling 示例,包含复杂决策、参数生成和结果解释等关键环节。 1. 场景设计:智能旅行规划助手 这个示...
AI
Hugging Face,transfer.xethub.hf.co国内打不开
如果 transfer.xethub.hf.co(Hugging Face 相关服务)在国内无法访问,可以通过以下方法解决: 1. 使用 HF Mirror 镜像站(推荐) HF Mirror(https://hf-mirror.com) 是国内维护的 Hugging Face 镜像,...
LangChain中不同Agent类型使用实操三
尝试让ZeroShotAgent具有记忆力 *注意,程序中增加了memory和chat_history等使其有记忆力的代码,可以让ZeroShotAgent具有记忆力 注意,从输出结果看它确实记住对话历史,在第三轮对话中它知道“这两个单词“是...
ubuntu neo4j安装
在Ubuntu上安装Neo4j数据库,你可以通过多种方式完成,包括使用官方的APT仓库、下载二进制文件或者直接使用Docker容器。下面是每种方法的详细步骤: 方法1:使用官方的APT仓库 添加Neo4j的APT仓库 打开终端,...
ollama gpu设置
默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环...
ollama 开放外部访问
要开放 Ollama 的外部访问,使其可以被局域网或外网访问,需要进行以下配置: 1. 设置 OLLAMA_HOST 环境变量 默认情况下,Ollama 仅监听 127.0.0.1:11434,要允许外部访问,需修改 OLLAMA_HOST: bash ...
如何自行训练开源的大模型
自行训练开源的大型模型(如 GPT、LLaMA、BLOOM 等)是一个复杂的过程,需要技术知识、硬件资源和时间。以下是详细的步骤和注意事项: 1. 准备工作 1.1 硬件需求 GPU:训练大模型需要高性能 GPU(如 NVI...
三步实现【DeepSeek】本地部署,告别服务器崩溃的烦恼!
现在有越来越多的开源模型,可以让你在自己的电脑或服务器上运行。使用本地模型有许多优势: 完全离线运行,保护隐私数据安全 无需支付在线 API 费用 完全离线,服务稳定,无网络延迟 可以自由调整和定制模...
Ollama Page Assist
Page Assist 是一款开源的浏览器扩展程序,主要为本地 AI 模型提供直观的交互界面,让用户可以在任何网页上与本地 AI 模型进行对话和交互。 基本功能 侧边栏交互:用户可以在任何网页上打开侧边栏,与本...
Ollama Open WebUI
Open WebUI 用户友好的 AI 界面(支持 Ollama、OpenAI API 等)。 Open WebUI 支持多种语言模型运行器(如 Ollama 和 OpenAI 兼容 API),并内置了用于检索增强生成(RAG)的推理引擎,使其成为强大的 AI 部署...