沐语 `Blog
沐语 `Blog 👋 🔭 一头不善言辞的间歇性社牛🐂 🌱 梦想成为一名摄影师,去记录山川湖海 📫 为什么写 Blog ? 👯 记录自己的胡 言 乱 语 ! 📖 当迷茫的时候,能拿出来看一看 😆 笑那年那月!笑无知!笑稚嫩! 🤔 正致力成为一名ctrl + C、ctrl + V优秀的CV攻城狮
博客标签
博客标签 写法 解释 title 【必需】页面标题 date 【必需】页面创建日期 tags 标签 categories 分类 hide : true true首页隐藏 cover : https://X 主页图片 background : url(https://X) 文章内背景 sticky : 99 是否置顶,数字越大越前面 comments 是否启用评论 aside 是否启用侧边栏
多因素身份验证(MFA)指南
多因素身份验证(MFA)指南标题: 一、引言 什么是 MFA? 多因素身份验证(Multi-Factor Authentication, MFA)是一种安全机制,要求用户提供两种或多种形式的身份证据来证明他们是合法用户。常见的形式包括:密码(知识因子)、物理令牌或智能手机应用生成的一次性密码(拥有因子)、生物特征识别(生物特征因子)等。 二、MFA 校验流程 初始化设置 登录目标账户(例如阿里云账号或其他在线服务)。 寻找并进入账户安全设置或相关页面以启用 MFA。 选择使用虚拟 MFA(如基于 RFC 6238 的 TOTP 应用)。 下载并安装支持 MFA 的应用程序,如 Google Authenticator、FreeOTP 或 Microsoft Authenticator。 扫描显示的二维码或手动输入共享密钥到应用程序中创建新的 MFA 配置。 日常使用 输入用户名和密码后,系统会提示输入由 MFA 应用生成的动态验证码。 在 MFA 应用中获取当前的有效验证码,并将其准确无误地输入到网站或应用的验证框内。 git add git comm ...
Expo EAS Build React Native 缩减打包体积.md
前言Expo 为如今的 React Native 开发提供了一个强大的平台,它简化了开发流程,同时也提供了丰富的功能。然而,随着应用规模的增长,打包体积也会相应增加,影响应用的加载速度和性能。为了优化应用的打包体积,Expo 提供了 EAS Build 服务,它可以帮助开发者自动构建优化后的 APK 或 IPA 包。 基础打包流程参考EAS Build文档 以下示例主要针对Android平台打包。 适用于旧版本的Android Gradle的打包如果您的APK包太大,您可以尝试在android/app/build.gradle文件中添加以下配置: 1234567891011android { split{ abi { enable true reset() include 'armeabi-v7a', 'arm64-v8a', 'x86', 'x86_64' univ ...
自动化发布Python包:从PyPI手动发布到GitHub Actions全流程
作为Python开发者,将自己的工具包发布到PyPI(Python Package Index)是分享代码的重要方式。然而,手动发布过程繁琐且容易出错。本文将带你了解如何: 手动将Python包发布到PyPI 使用GitHub Actions实现自动化构建和发布 解决发布过程中的常见问题 基于Demo分享本教程:https://github.com/Muieay/magic-tools 第一部分:手动发布到PyPI1. 创建项目结构官方推荐的一个标准的Python包结构如下: 123456789my-package/├── LICENSE├── README.md├── pyproject.toml├── src/│ └── my_package/│ ├── __init__.py│ └── module.py└── tests/ 注意事项: pypi官方包名通常建议使用短横线(-)作为分隔符。 在Python 的导入语句要求使用下划线(_)作为模块名的分隔符,因为 Python 标识符不允许使用短横线。 PyPI 包名:my-package ...
Ollama 离线安装
Ollama 离线安装 在线安装参考 https://ollama.com/ 加速脚本下载: curl -fsSL https://fastscript.netlify.app/ai/ollama-install.sh | sh 步骤1:查看服务器CPU的型号 选择对应版本的安装包(当前CPU架构为x86,选择amd的版本),复制链接使用镜像加速下载 x86_64 CPU选择下载ollama-linux-amd64 aarch64|arm64 CPU选择下载ollama-linux-arm64 下载地址:https://github.com/ollama/ollama/releases 加速地址:https://moeyy.cn/gh-proxy git lfs installgit clone https://www.modelscope.cn/qwen/Qwen2-7B.gitshell 步骤2:离线下载Linux环境的Ollama安装脚本,并保存到**/home/Ollama**目录 1234567## 下载地址1,浏览器中打开下面地址https://olla ...
Unsloth微调模型
Unsloth微调模型详细参数参考:Unsloth 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103# 加载模型和分词器from unsloth import FastLanguageModelfrom local_dataset import LocalJsonDatasetfrom safetensors.torch import load_model, save_modelmax_seq_length = 2048dtype = Noneload_in_4bit = Falsemodel, tokenizer = FastLanguageModel.from_pretrained( model_name="./mod ...
Ollama 配置多并发和多模型
Ollama 配置多并发和多模型Linux为例 通过调用 编辑 systemd 服务systemctleditollama.service 这将打开一个编辑器。 1vim /etc/systemd/system/ollama.service 在[Service]部分下对于每个环境变量添加一行Environment, 如下所示 123[Service]Environment="OLLAMA_NUM_PARALLEL=4" #并行处理请求的数量Environment="OLLAMA_MAX_LOADED_MODELS=4" #同时加载的模型数 保存并退出。 3 . 重新加载systemd并重新启动 Olama: 12sudo systemctl daemon-reloadsudo systemctl restart ollama 在restart ollama前一定要调用daemon reload, 不然不会起作用。
llama.cpp量化模型文件
llama.cpp量化模型文件1. 构建llama.cpp使用克隆 llama.cpp 存储库 1git clone https://github.com/ggerganov/llama.cpp 12cd llama.cpp llama.cpp有我们需要运行的Python脚本,所以我们需要它的依赖项pip install pip install -r requirements.txt 现在,让我们建立我们的本地llama.cpp make clean && make all -j 对于任何拥有 nvidia GPU 的机器make clean && LLAMA_CUDA=1 make all -j 2. 获取模型数据下载开源模型,或者使用自己训练的模型 12git lfs installgit clone https://www.modelscope.cn/qwen/Qwen2-7B.git
Dify源码启动
Dify源码启动前置Clone Dify 代码: 1git clone https://github.com/langgenius/dify.git 在启用业务服务之前,我们需要先部署 PostgresSQL / Redis / Weaviate(如果本地没有的话),可以通过以下命令启动: 12cd dockerdocker compose -f docker-compose.middleware.yaml up -d 环境安装(conda)使用poetry环境请参考:poetry安装依赖 创建python环境,dify基于python3.10开发 1conda create --name dify python=3.10 --channel https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ 切换环境 1conda activate dify Dify API 服务使用 Poetry 来管理依赖,执行以下命令安装依赖 123pipx install poetry如果不使用poetry则:pip ...




