1. llama.cpp (https://github.com/ggerganov/llama.cpp ) - 纯 C/C++ 的 LLaMA,可在本地 CPU 上运行;
2. Jan (https://github.com/janhq/jan ) - ChatGPT 的开源替代方案,可在电脑上 100% 离线运行;
3. LocalAI (https://github.com/mudler/LocalAI ) - OpenAI、Claude 等人的免费开源替代品。自托管且本地优先,用 Go 编写;
4. ollama (https://github.com/ollama/ollama ) - 用于在本地级别使用 Llama 2 和其他主要语言模型的工具;
5. LM Studio (https://lmstudio.ai/ ) - 用于探索、加载和运行各种大型语言模型(LLM)的软件;
6. llamafile (https://github.com/Mozilla-Ocho/llamafile ) - 允许您在单个文件中运行不同的 LLM;
7. GPT4ALL (https://www.nomic.ai/gpt4all ) - 另一个本地运行 ChatGPT 的著名解决方案。
只需将视频链接粘贴到输入框中,点击解析即可快速下载视频。还提供了多种格式的下载选项,包括视频、音频和图片。
https://greenvideo.cc/
浙江大学的一个开源项目,为对大语言模型(LLMs)感兴趣的读者提供系统的基础知识和前沿技术的介绍。
项目包含《大模型基础》教材,涵盖了传统语言模型、大语言模型架构演化、Prompt工程、参数高效微调、模型编辑、检索增强生成等多个主题。
https://github.com/ZJU-LLMs/Foundations-of-LLMs
提供详细的PC、Mac和Linux环境搭建指南;每周项目实战,涵盖从基础到高级的LLM应用;免费使用Google Colab GPU资源,无需高昂API费用
https://github.com/ed-donner/llm_engineering
https://github.com/pietrozullo/mcp-use
https://docs.mcp-use.io/introduction
https://github.com/FrozenGEE/compose
RSSPod
一个 Web 版播客客户端,可通过 RSS 订阅并收听喜爱的播客内容,支持多种播客来源,所有操作不会打断当前播放,收听体验非常不错,登录账号后,可订阅播客。
https://rsspod.pro
基于此框架网上大佬写了一个MCP服务
解决了你在vibe编码时大模型的胡编乱造,那是不是elementUI 也是可以添加MCP 服务
该MCP服务改造用到 MCP Inspector 框架 (非常贴心的管理界面)
https://github.com/modelcontextprotocol/inspector
Cursor 配置有时候经常反应慢,重启解决一大部分问题。
主要功能点:
获取所有可用的Flux UI组件列表
获取特定组件的详细信息
获取特定组件的使用示例
根据关键字搜索组件
https://github.com/iannuttall/flux-ui-mcp
它能帮助我们以可视化方式定制 Tailwind CSS 和 shadcn/ui 组件,让网站界面摆脱千篇一律的风格。
https://github.com/jnsahaj/tweakcn
主要功能:
- 提供 300+ 种美观的主题预设,快速应用个性化风格
- 可视化编辑 Tailwind CSS 主题配置
- 解决 shadcn/ui 组件千篇一律的视觉问题
- 实时预览主题变化效果
如果你正在开发一个网站,这个开源工具也许能帮助我们构建一个精美的网站。
假如你对 Web 实时同学感兴趣,可以看看这个「给好奇者的 WebRTC」,挺适合入门者学习。
webrtcforthecurious.com/zh/
webrtcforthecurious.com/zh/
https://github.com/IamFurina/SPlayer
https://github.com/star7th/jisuxiang
https://www.jisuxiang.com/
PC 游戏存档库,覆盖 4000+ 款游戏,每个存档都有详细介绍,包括完成度、角色等级、装备、金币数量、解锁内容等,下载后放在游戏存档文件夹即可,完全免费,无需注册登陆。
这类网站还是挺少见的,游戏爱好者可以收藏一下,也可以上传自己的存档。
https://savegame.pro