展示HN:基于RTX 3080的本地任务分类器和调度器
Show HN: Local task classifier and dispatcher on RTX 3080

原始链接: https://github.com/resilientworkflowsentinel/resilient-workflow-sentinel

本地LLM驱动的智能任务路由编排器演示。 # 创建虚拟环境 python -m venv .venv .venv\Scripts\activate # 安装依赖 pip install -r requirements.txt # 下载本地LLM模型 python models/download_model.py # 启动LLM服务 (端口8000) uvicorn app.local_llm_service.llm_app:app --host 127.0.0.1 --port 8000 --reload # 启动编排器 (端口8100) uvicorn app.main:app --host 127.0.0.1 --port 8100 --reload # 启动UI (NiceGUI) python ui/nicegui_app.py ------------------------------------------------------------------------------------------- ## Windows批处理脚本选项 (替代方案) download_model.bat # 一次性设置脚本 install_and_run.bat run_llm.bat # 启动LLM服务 run_api.bat # 启动编排器API run_ui.bat # 启动NiceGUI界面

## 弹性工作流哨兵:本地AI任务管理 Shubham_Amb,一位3D艺术家和IT毕业生,开发了“弹性工作流哨兵”,这是一款完全离线的AI代理,旨在根据紧急程度(低、中、高)对任务进行分类和分派。该系统旨在解决数据隐私问题以及Jira和Slack等云解决方案相关的成本问题,将敏感信息保存在组织的基础设施*内部*。 该代理运行在RTX 3080上,避免了对Ollama等工具的依赖,并使用Qwen2.5-7b-instruct模型,结合Python、PyTorch和Fast API。初步提示速度较慢(每项任务70-90秒),因此开发者实施了批处理、JSON约束和“转向向量”——用于优化模型注意力和输出的技术,将处理时间缩短至15-30秒。 该项目旨在为每次token的API费用提供一种经济高效且可靠的替代方案,从而为初创公司和企业节省大量开支。代码和演示可在GitHub上找到:[https://github.com/resilientworkflowsentinel/resilient-workflow](https://github.com/resilientworkflowsentinel/resilient-workflow)。
相关文章

原文

Local demo of LLM-powered orchestrator for intelligent task routing.

# create venv
python -m venv .venv
.venv\Scripts\activate

# install requirements
pip install -r requirements.txt

# download local LLM model
python models/download_model.py

# start LLM service (port 8000)
uvicorn app.local_llm_service.llm_app:app --host 127.0.0.1 --port 8000 --reload

# start orchestrator (port 8100)
uvicorn app.main:app --host 127.0.0.1 --port 8100 --reload

# start UI (NiceGUI)
python ui/nicegui_app.py

-------------------------------------------------------------------------------------------

## Windows Batch Script Options (Alternative)

# One-time setup scripts
download_model.bat
install_and_run.bat

# Start services individually
run_llm.bat # Start LLM service
run_api.bat # Start orchestrator API
run_ui.bat # Start NiceGUI interface
联系我们 contact @ memedata.com