AI

密码保护:Hugging Face 的默认下载地址切换到国内镜像站

由于Hugging Face在国内不能使用,因此需要把Hugging Face 的网站改为国内镜像,从而加速模型和数据集下载。以下是具体用法和注意事项下面是改进方法 在 Linux(或其他系统)中,设置环境变量 HF_ENDPOINT='ht...

密码保护:声纹比对

import asyncio import io import os import pickle from pathlib import Path from typing import Dict, List, Optional import numpy as np import torch from pydub import AudioSegment from rese...

Hugging Face,transfer.xethub.hf.co国内打不开

如果 transfer.xethub.hf.co(Hugging Face 相关服务)在国内无法访问,可以通过以下方法解决: 1. 使用 HF Mirror 镜像站(推荐) HF Mirror(https://hf-mirror.com) 是国内维护的 Hugging Face 镜像,...

LangChain中不同Agent类型使用实操三

尝试让ZeroShotAgent具有记忆力 *注意,程序中增加了memory和chat_history等使其有记忆力的代码,可以让ZeroShotAgent具有记忆力 注意,从输出结果看它确实记住对话历史,在第三轮对话中它知道“这两个单词“是...

ubuntu neo4j安装

在Ubuntu上安装Neo4j数据库,你可以通过多种方式完成,包括使用官方的APT仓库、下载二进制文件或者直接使用Docker容器。下面是每种方法的详细步骤: 方法1:使用官方的APT仓库 添加Neo4j的APT仓库 打开终端,...

ollama gpu设置

默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环...

ollama 开放外部访问

要开放 Ollama 的外部访问,使其可以被局域网或外网访问,需要进行以下配置: 1. 设置 OLLAMA_HOST 环境变量 默认情况下,Ollama 仅监听 127.0.0.1:11434,要允许外部访问,需修改 OLLAMA_HOST: bash ...

如何自行训练开源的大模型

自行训练开源的大型模型(如 GPT、LLaMA、BLOOM 等)是一个复杂的过程,需要技术知识、硬件资源和时间。以下是详细的步骤和注意事项: 1. 准备工作 1.1 硬件需求 GPU:训练大模型需要高性能 GPU(如 NVI...