
https://github.com/tensorflow/tensorflow
tensorflow不同的训练模型
npm i @tensorflow/tfjs
npm i @tensorflow-models/mobilenet
npm i @tensorflow-models/hand-pose-detection
npm i @tensorflow-models/pose-detection
npm i @tensorflow-models/coco-ssd
npm i @tensorflow-models/deeplab
npm i @tensorflow-models/face-landmarks-detection
npm i @tensorflow-models/speech-commands
npm i @tensorflow-models/universal-sentence-encoder
npm i @tensorflow-models/toxicity
npm i @tensorflow-models/depth-estimation
npm i @tensorflow-models/knn-classifierhttps://github.com/tensorflow/tfjs-models
部署ai 程序
Claude 3.7 Sonnet
Claude Code 是 Anthropic 官方推出的命令行 AI 编程助手,它不是传统的 AI IDE,而是一个革命性的智能编程工具。与 Cursor 等 AI 编程工具不同,Claude Code 采用代理式开发模式,让 AI 从"辅助工具"升级为"开发团队"。
安装
npm install -g @anthropic-ai/claude-codebash
# 在项目目录中启动cd your-project
claude
# 直接提问
claude "帮我分析这个项目"# 单次执行模式
claude -p "运行测试并生成报告"# 继续上次对话
claude -c# 恢复特定会话
claude -r "session-id"https://github.com/pimzino/claude-code-spec-workflow#readme
https://github.com/musistudio/claude-code-router?tab=readme-ov-file
安装
npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-routerconfig.json 文件有几个关键部分:
PROXY_URL (可选): 您可以为 API 请求设置代理,例如:"PROXY_URL": "http://127.0.0.1:7890"。LOG (可选): 您可以通过将其设置为 true 来启用日志记录。当设置为 false 时,将不会创建日志文件。默认值为 true。LOG_LEVEL (可选): 设置日志级别。可用选项包括:"fatal"、"error"、"warn"、"info"、"debug"、"trace"。默认值为 "debug"。日志系统
: Claude Code Router 使用两个独立的日志系统:
~/.claude-code-router/logs/ 目录中,文件名类似于 ccr-*.log~/.claude-code-router/claude-code-router.log 文件中APIKEY (可选): 您可以设置一个密钥来进行身份验证。设置后,客户端请求必须在 Authorization 请求头 (例如, Bearer your-secret-key) 或 x-api-key 请求头中提供此密钥。例如:"APIKEY": "your-secret-key"。HOST (可选): 您可以设置服务的主机地址。如果未设置 APIKEY,出于安全考虑,主机地址将强制设置为 127.0.0.1,以防止未经授权的访问。例如:"HOST": "0.0.0.0"。NON_INTERACTIVE_MODE (可选): 当设置为 true 时,启用与非交互式环境(如 GitHub Actions、Docker 容器或其他 CI/CD 系统)的兼容性。这会设置适当的环境变量(CI=true、FORCE_COLOR=0 等)并配置 stdin 处理,以防止进程在自动化环境中挂起。例如:"NON_INTERACTIVE_MODE": true。Providers: 用于配置不同的模型提供商。Router: 用于设置路由规则。default 指定默认模型,如果未配置其他路由,则该模型将用于所有请求。API_TIMEOUT_MS: API 请求超时时间,单位为毫秒。简单来说,技能就是怎么做;MCP 是有什么工具、有什么功能。
技能的话,主要是经验、最佳实践、流程的封装,而 MCP 是连接与交互的协议,主要是 API 调用、数据读写和工具等。
Skills主要是 Markdown 文件和一些脚本文件,优势在于渐进式加载,不需要服务器资源,适用性好;MCP 主要是客户端和服务端的架构,启动时加载所有工具定义,集成外部功能,Tokens 消耗更高,使用起来更复杂。
两者是互补的关系,Agent 可以通过 Skills 获取知识,通过 MCP 拓展功能
https://github.com/anthropics/skills
react skill https://github.com/vercel-labs/agent-skills/tree/main
open skills https://github.com/numman-ali/openskills
Cursor 能解决非常多基础问题,包括我自己也已经习惯了使用 Cursor 替代 VS Code 完成日常工作。它很好用,但并不神秘,本质上就是在传统 IDE 基础上,搭配足够好的交互与足够好的 LLM,从而超越传统 IDE。交互方面,它在 VS Code 基础上,补充提供了:
@codebase/@files 等 symbol 指令);Cursor Chat 帮助你搜索和理解代码。使用它来探索你的代码库、提问和获取解释。你可以使用 ⌘⏎ 搜索代码。
Composer 帮助你编写和编辑代码。它提供了一个工作区,你可以在其中生成新代码并直接将更改应用到你的文件中。
重置cursor试用期,一个go脚本
https://github.com/yuaotian/go-cursor-help?tab=readme-ov-file#-chinese
一个用于修改 Cursor 编辑器设备 ID 的跨平台工具集。当遇到设备 ID 锁定问题时,可用于重置设备标识。
https://github.com/fly8888/cursor_machine_id
一个python脚本
https://cursor.document.top/tips/usage/set-rules/
Cline 是一款开源的 AI 助手插件,深度集成在 VS Code 中。它借助 Claude 3.5 Sonnet 等模型的能力,实现复杂的软件开发任务。Cline 支持多种 API 提供商和模型,包括 OpenRouter、Anthropic、Google Gemini、DeepSeek V3 等,开发者可自由选择调用远程或本地模型,具有高度的灵活性。其独特的「人类监督」机制确保了代码和命令的安全性,为开发者提供了可靠的编程环境
代码创建与编辑功能强大:通过深入分析项目的文件结构和语法树(AST),Cline 能够快速理解项目并提供高效的代码补全建议,同时还能自动修复语法错误,大大提高了编码效率。例如,在编写 Python 脚本时,它可以根据上下文准确地补全函数名、变量名等,减少手动输入的错误。
命令行集成高效便捷:Cline 获得用户授权后,可直接在终端执行命令,实时监控输出并据此灵活调整操作。比如在安装项目依赖包时,它能自动执行pip install命令,并实时反馈安装进度和结果,让开发者无需手动在终端输入命令,节省时间和精力。
浏览器操作功能实用:能够启动无头浏览器,模拟用户在浏览器中的操作,如点击、输入、滚动等,并可以捕获页面截图和控制台日志。这在 Web 开发中非常有用,例如可以帮助开发者快速定位和修复页面布局问题、JavaScript 错误等。
支持 MCP 协议扩展能力:借助 Model Context Protocol(MCP),Cline 能够动态扩展自身功能,创建各种自定义工具。例如,开发者可以通过简单的指令让 Cline 创建一个用于获取特定网站数据的工具,然后将其集成到工作流程中,满足个性化的开发需求。
多模型支持灵活多样:除了 Claude 3.5 Sonnet 模型外,Cline 还支持 Google Gemini 2.0 等多种模型。开发者可以根据不同的项目需求和个人偏好选择合适的模型,以获得最佳的编程辅助效果。例如,在处理多模态任务时,可选择支持多模态输入 / 输出的 Gemini 2.0 模型。
上下文管理精准有效:Cline 可以通过精心管理添加到上下文中的信息,为大型复杂项目提供有价值的帮助,同时避免因信息过多而导致的性能问题。在处理包含多个文件和模块的项目时,它能准确理解项目结构和代码逻辑,提供针对性的建议和解决方案。
安全机制保障可靠:「人类监督」机制确保每一步操作都在用户的掌控之中,用户可以批准或拒绝 Cline 的操作,有效避免潜在的安全风险,保护代码和数据的安全。例如,在执行可能修改重要文件的操作时,用户可以先审查 Cline 的操作计划,确保无误后再批准执行
适用场景
Web 开发项目:在创建一个基于 React + Vite + Tailwind CSS 的 Patron 搜索界面时,Cline 可根据设计图或文字描述快速生成符合要求的组件代码,包括搜索栏、按钮、信息折叠面板等,并实现交互功能,如点击搜索按钮执行搜索操作、点击折叠面板展开或隐藏内容等,还能确保界面的响应式设计,使其适应不同屏幕尺寸。
数据处理与分析任务:开发者需要编写 Python 脚本来批量处理 Excel 文件并生成数据报表时,Cline 能够理解需求,自动创建脚本文件,读取指定文件夹下的所有 Excel 文件,提取销售数据并进行月度统计,最后生成汇总报表并实现可视化,如绘制柱状图展示销售额趋势等,整个过程无需开发者手动编写大量代码。
自动化脚本编写工作:当需要编写一个自动化脚本,如自动备份数据库、定期清理文件等,Cline 可以协助开发者完成脚本的基本框架搭建,根据具体需求生成相应的命令和逻辑,如设置备份路径、定时任务等,同时确保脚本的准确性和高效性,减少人工编写可能出现的错误。
代码调试与错误修复环节:在开发过程中遇到代码错误或运行时问题时,Cline 可以通过分析错误信息、查看相关代码文件,提出可能的解决方案,如修复语法错误、调整函数参数等。对于复杂的调试场景,它还可以启动无头浏览器模拟运行环境,捕获控制台日志,帮助开发者快速定位问题所在。
项目管理与协作场景:在团队协作的项目中,Cline 可以与 GitHub 等版本控制系统集成,自动获取最新代码,更新 Jira tickets,保持团队成员之间的信息同步。例如,当开发者完成一个功能模块的开发并提交代码后,Cline 可以自动更新相关的 Jira 任务状态,方便团队成员及时了解项目进展。
Roo Code 是一个 AI 驱动的自主编码代理,它存在于您的编辑器中。它可以:
无论您是寻找灵活的编码伙伴、系统架构师,还是像 QA 工程师或产品经理这样的专业角色,Roo Code 都可以帮助您更高效地构建软件
https://github.com/RooVetGit/Roo-Code
Roo Code 配备了强大的工具,可以:
MCP 通过允许您添加无限自定义工具来扩展 Roo Code 的能力。与外部 API 集成、连接数据库或创建专业开发工具 - MCP 提供了扩展 Roo Code 功能以满足您特定需求的框架。
Windsurf不仅可以深度理解代码库,还配备了强大的工具集,并能实时感知用户的操作
https://github.com/grapeot/devin.cursorrules
https://tabby.tabbyml.com/docs/quick-start/installation/docker/
Ai 社区
https://www.gradio.app/guides/creating-plots
https://www.trae.ai/ ai ide
聊天机器人
https://github.com/Soulter/AstrBot
https://zhuanlan.zhihu.com/p/22711061038
https://www.augmentcode.com/install/vscode
https://github.com/firecrawl/open-lovable?tab=readme-ov-file
https://aider.chat/docs/llms.html
https://github.com/BuilderIO/ai-shell
存放ai数据集的平台
https://github.com/minio/minio
字节开发的ai自动化工具
集成playwright
import { expect } from "@playwright/test";
import { test } from "./fixture";
test.beforeEach(async ({ page }) => {
page.setViewportSize({ width: 400, height: 905 });
await page.goto("https://www.ebay.com");
await page.waitForLoadState("networkidle");
});
test("search headphone on ebay", async ({
ai,
aiQuery,
aiAssert,
aiInput,
aiTap,
aiScroll
}) => {
// 使用 aiInput 输入搜索关键词
await aiInput('Headphones', '搜索框');
// 使用 aiTap 点击搜索按钮
await aiTap('搜索按钮');
// 等待搜索结果加载
await aiWaitFor('搜索结果列表已加载', { timeoutMs: 5000 });
// 使用 aiScroll 滚动到页面底部
await aiScroll(
{
direction: 'down',
scrollType: 'untilBottom'
},
'搜索结果列表'
);
// 使用 aiQuery 获取商品信息
const items = await aiQuery<Array<{title: string, price: number}>>(
'获取搜索结果中的商品标题和价格'
);
console.log("headphones in stock", items);
expect(items?.length).toBeGreaterThan(0);
// 使用 aiAssert 验证筛选功能
await aiAssert("界面左侧有类目筛选功能");
});通过简单的几行代码,就能让 AI 模型像真人一样与网页互动,完成各种复杂任务,比如自动投简历、查询航班信息,甚至筛选模型。
底层也借助了微软的自动化框架 playwright 进行功能延展
安装
pip install browser-use使用
from langchain_openai import ChatOpenAI
from browser_use import Agent
import asyncio
async def main():
agent = Agent(
task="Find a one-way flight from Bali to Oman on 12 January 2025 on Google Flights. Return me the cheapest option.",
llm=ChatOpenAI(model="gpt-4o"),
)
result = await agent.run()
print(result)
asyncio.run(main())基于claude
LLM+vision
https://github.com/browserbase/stagehand
nextjs公司用的ai测试工具
检索增强生成
检索增强生成 (RAG) 是一种使用来自私有或专有数据源的信息来辅助文本生成的技术。它将检索模型(设计用于搜索大型数据集或知识库)和生成模型(例如大型语言模型 (LLM),此类模型会使用检索到的信息生成可供阅读的文本回复)结合在一起。
通过从更多数据源添加背景信息,以及通过训练来补充 LLM 的原始知识库,检索增强生成能够提高搜索体验的相关性。这能够改善大型语言模型的输出,但又无需重新训练模型。额外信息源的范围很广,从训练 LLM 时并未用到的互联网上的新信息,到专有商业背景信息,或者属于企业的机密内部文档,都会包含在内。
RAG 对于诸如回答问题和内容生成等任务,具有极大价值,因为它能支持生成式 AI 系统使用外部信息源生成更准确且更符合语境的回答。它会实施搜索检索方法(通常是语义搜索或混合搜索)来回应用户的意图并提供更相关的结果。
检索增强生成是一个多步式流程,始于检索,然后推进到生成。下面介绍了它的运作方式:
检索
生成
相比于单独运行的语言模型,检索增强生成有数项优势。下面列举了它可以从哪些方面改进文本生成和回复:
https://www.elastic.co/cn/what-is/retrieval-augmented-generation
Docling 是一个开源的以AI驱动的文档解析和处理工具。
它能够轻松读取各种流行的文档格式,包括 PDF、DOCX、PPTX、LSX、图片、HTML、AsciiDoc 和 Markdown,并将其转换为 HTML、Markdown 和 JSON 格式。
主打 快速解析文档并导出为所需格式,为构建 AI 驱动的 RAG/QA 应用提供了高效、便捷的解决方案。
使用
from docling.document_converter import DocumentConverter
source = "https://arxiv.org/pdf/2408.09869" # document per local path or URL
converter = DocumentConverter()
result = converter.convert(source)
print(result.document.export_to_markdown()) # output: "## Docling Technical Report[...]"https://github.com/DS4SD/docling
https://github.com/OpenSPG/KAG
KAG 是基于 OpenSPG 引擎和大型语言模型的逻辑推理问答框架,用于构建垂直领域知识库的逻辑推理问答解决方案。KAG 可以有效克服传统 RAG 向量相似度计算的歧义性和 OpenIE 引入的 GraphRAG 的噪声问题。KAG 支持逻辑推理、多跳事实问答等,并且明显优于目前的 SOTA 方法。
KAG 的目标是在专业领域构建知识增强的 LLM 服务框架,支持逻辑推理、事实问答等。KAG 充分融合了 KG 的逻辑性和事实性特点,其核心功能包括:
私域知识库场景,非结构化数据、结构化信息、业务专家经验 往往三者共存,KAG 提出了一种对大型语言模型(LLM)友好的知识表示框架,在 DIKW(数据、信息、知识和智慧)的层次结构基础上,将 SPG 升级为对 LLM 友好的版本,命名为 LLMFriSPG。
这使得它能够在同一知识类型(如实体类型、事件类型)上兼容无 schema 约束的信息提取和有 schema 约束的专业知识构建,并支持图结构与原始文本块之间的互索引表示。
https://github.com/infiniflow/ragflow
传统的文档管理系统往往存在以下痛点:
RAGFlow通过深度文档理解技术,结合先进的大语言模型,完美解决了这些问题。它能够智能处理各类文档,提供准确的问答服务,让企业知识管理更轻松、更高效
通过先进的文档分析技术,RAGFlow能够精准识别和提取文档中的结构化信息,自动建立知识关联,让文档内容真正发挥价值,而不是仅仅停留在简单的文本存储层面。
使用
import { Signer } from '@volcengine/openapi';
import type { RequestObj } from '@volcengine/openapi/lib/base/types';
interface Options {
pathname: string
method: 'GET' | 'POST'
body?: string // json 字符串,当且仅当 post 请求
region: 'cn-beijing' | 'cn-shanghai'
params?: Record<string, any> // 当且仅当 get 请求
}
function signer({ pathname, method, body, region, params }: Options) {
const requestObj: RequestObj = {
region,
headers: {
Accept: 'application/json',
'Content-Type': 'application/json'
},
method,
body,
pathname,
params,
}
const signer = new Signer(requestObj, 'air')
signer.addAuthorization({
accessKeyId: 'ak', // 替换为用户 ak
secretKey: 'sk', // 替换为用户 sk
})
return requestObj.headers
}
import { Injectable } from '@nestjs/common';
import { vikingdb } from '@volcengine/openapi';
@Injectable()
export class VolcengineService {
public service = new vikingdb.VikingdbService({
ak: 'xxx',
sk: 'xxx',
region: 'cn-shanghai',
});
}https://github.com/BloopAI/vibe-kanban
原型设计工具
https://app.uizard.io/prototypes/vmleq8oW4jc5b5pwJyLg
figma插件,由设计稿生成前端代码
https://builder.io/content/3da7ffff103f4c46b211974d66e3099d
https://github.com/mastra-ai/mastra/pulls
import { openai } from "@ai-sdk/openai";
import { Agent } from "@mastra/core/agent";
import { weatherTool } from "../tools/weather-tool";
export const weatherAgent = new Agent({
name: "Weather Agent",
instructions: `You are a helpful weather assistant that provides accurate weather information.
Your primary function is to help users get weather details for specific locations. When responding:
- Always ask for a location if none is provided
- Include relevant details like humidity, wind conditions, and precipitation
- Keep responses concise but informative
Use the weatherTool to fetch current weather data.`,
model: openai("gpt-4o-mini"),
tools: { weatherTool },
});https://github.com/jd-opensource/joyagent-jdgenie
当前相关开源agent主要是SDK或者框架,用户还需基于此做进一步的开发,无法直接做到开箱即用。我们开源的JoyAgent-JDGenie是端到端的多Agent产品,对于输入的query或者任务,可以直接回答或者解决。例如用户query"给我做一个最近美元和黄金的走势分析",JoyAgent-Genie可以直接给出网页版或者PPT版的报告文档。
JoyAgent-JDGenie是一个通用的多智能体框架,对于用户需要定制的一些新场景功能,只需将相关的子智能体或者工具挂载到JoyAgent-Genie即可。为了验证JoyAgent-JDGenie的通用性,在GAIA榜单Validation集准确率75.15%、Test集65.12%,已超越OWL(CAMEL)、Smolagent(Huggingface)、LRC-Huawei(Huawei)、xManus(OpenManus)、AutoAgent(香港大学)等行业知名产品。
https://github.com/langgenius/dify/
语言转文本
https://github.com/coqui-ai/TTS?tab=readme-ov-file
https://github.com/chidiwilliams/buzz?tab=readme-ov-file
https://github.com/jianchang512/pyvideotrans
https://pro-chat.antdigital.dev/
https://github.com/mckaywrigley/chatbot-ui
开源大模型
清华大模型
自动驾驶大模型
https://github.com/taco-group/openemma
Crawl4AI 是一个专注于 LLM(大语言模型)友好 的开源网络爬虫和抓取工具。它的目标是帮助开发者、研究人员和普通用户高效地从网页中提取有价值的信息,同时支持多种灵活的配置和扩展。
它的核心功能包括:
生成干净的 Markdown
直接输出结构化的文本内容,方便后续处理或导入到 AI 模型中。
结构化提取
支持 CSS、XPath 等传统方法,也可以结合 LLM 进行智能提取。
高级浏览器控制
支持无头浏览器、代理、隐身模式、会话管理等功能,帮助你模拟真实用户行为。
高性能
支持多线程和异步操作,适合处理大规模数据或实时场景。
完全开源
没有任何 API 限制或付费墙,完全自由使用和修改。
对于很多开发者来说,网络爬虫工具的选择往往需要在功能、性能和易用性之间权衡。而 Crawl4AI 则在这些方面都表现得非常出色:
from crawl4ai import AsyncWebCrawler, BrowserConfig
async def simple_crawl():
browser_config = BrowserConfig(headless=True, java_script_enabled=True)
async with AsyncWebCrawler(config=browser_config) as crawler:
result = await crawler.arun(url="https://example.com")
print(result.markdown_content)
if __name__ == "__main__":
import asyncio
asyncio.run(simple_crawl())https://github.com/unclecode/crawl4ai
Related Issues not found
Please contact @Kun8018 to initialize the comment