• 最新文章
  • 前端开发
  • AI技术
  • 工具软件
  • 网站建设
  • 电脑基础

Electron 应用构建支持统信 UOS 系统安装使用的方法

Electron 类项目通过 electron-builder 中的 linux 平台下的 deb 配置可一键打包出 deb 安装包。此类包可以在 UOS 系统中安装(一般会安装到 /opt 目录下),但点击快捷键无反应,通过命令行形式运行则提示 sandbox 相关错误。 1 关于 sandbox 异常的解决方法 一种简单的解决办法是修改快捷键文件,添加 --no-sandbox 启动参数。 假
Electron 应用构建支持统信 UOS 系统安装使用的方法

SSE 流式请求避免 nginx 缓冲导致块式输出的解决办法

在前端以 SSE(Server Sent Event) 调用大模型 API 请求时,正常应该是流畅的按字符响应,但却出现了断断续续按块式输出的现象,使得体验较差。 这主要是因为 Nginx 默认会启用代理缓冲 proxy_buffering,从而导致 SSE 数据被缓存并按块返回。可以通过修改 Nginx 配置禁用缓冲来解决。 1 Nginx 禁用 proxy_buffering 配置示例 以下是
SSE 流式请求避免 nginx 缓冲导致块式输出的解决办法

免费电影网站的另一种打开方式:批量下载、边看边播不卡顿、支持 Docker 部署、永久免费!

你是否也遇到过:免费电影网站刚收藏就失效?在线看剧广告满天飞、卡顿不断?其实,99%的免费电影网站片源都来自“资源站”。只要掌握方法,看片再也不卡顿!今天给大家安利一款神器——@lzwme/m3u8-dl,支持批量下载剧集、Web管理、Docker一键部署,永久免费!
免费电影网站的另一种打开方式:批量下载、边看边播不卡顿、支持 Docker 部署、永久免费!

使用 RSS 订阅:个人高效阅读知识补充指南

在互联网上,我们获取知识的方式越来越依赖于算法推荐,而 RSS 则是一种可以让我们主动选择和获取知识的方式。当前,我主要的阅读方式是关注高质量公众号并利用碎片化时间阅读,通过 RSS 订阅个人感兴趣的高质量博客作为知识获取补充,对比较感兴趣的内容则会搜集相关文档或电子书籍系统化的学习了解。
使用 RSS 订阅:个人高效阅读知识补充指南

高性能 Python 包管理器 uv 的安装与使用

1 什么是 uv? uv 是 Astral 公司推出的一款基于 Rust 编写的 Python 包管理工具,旨在成为“Python 的 Cargo”。它提供了快速、可靠且易用的包管理体验,在性能、兼容性和功能上都有出色表现,为 Python 项目的开发和管理带来了新的选择。 uv 的主要优势在于其速度快和功能全面。得益于 Rust 的性能优势,uv 在安装依赖等方面的速度远超其他工具。同时,uv
高性能 Python 包管理器 uv 的安装与使用

Python 环境管理工具 Miniconda 的安装、配置与使用

Miniconda 是一个轻量级的 Python 环境管理工具,它是 Anaconda 的简化版本。与 Anaconda 不同,Miniconda ‌不预装大量科学计算库‌,而是仅包含 conda 包管理工具和 Python 基础环境,用户可以根据需要自行安装所需依赖。这使得它更灵活且节省存储空间。 1. 安装 Miniconda 官方安装参考:https://www.anaconda.com/d
Python 环境管理工具 Miniconda 的安装、配置与使用

企业级LLM应用开发平台Dify1.x新版本私有化部署使用及主要问题解决方法

1. Dify 简介 Dify 是一个开源的大模型(LLM,Large Language Model)应用开发平台,提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等能力,旨在通过低代码/无代码方式简化生成式 AI 应用的构建,仅通过拖拉拽和配置即可构建复杂的企业级人工智能应用。此外也支持通过其插件体系、API 调用等方式编程开发扩展实现更为复杂的功能需求。 在 d
企业级LLM应用开发平台Dify1.x新版本私有化部署使用及主要问题解决方法

私有化部署 SearXNG 实现 DeepSeek+Open-WebUI 联网搜索功能

如果你已经部署了 Open WebUI 但苦于不能联网搜索,或者也部署了 SearXNG,但困于启用联网搜索时总是无法正常联网搜索到结果,那么本文内容或许对您有帮助。 1. 什么是联网搜索 大模型应用的联网搜索是指将大模型与搜索引擎API相结合,通过调用外部搜索引擎来获取实时信息,从而提升模型的回答质量和时效性。联网搜索是一种 RAG(Retrieval-Augmented Generation,
私有化部署 SearXNG 实现 DeepSeek+Open-WebUI 联网搜索功能

详细!离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决

Ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。 1 Ollama 安装 Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。其安装、使用及模型下载非常简单,可以简单概括为以下几
详细!离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决