模型

MMaDA

MMaDA(Multimodal Large Diffusion Language Models)是由普林斯顿大学、清华大学、北京大学和字节跳动联合开发的多模态扩散模型,支持跨文本推理、多模态理解和文本到图像生成等多种功能。其采用统一的扩散架构和模态不可知设计,结合混合长链推理微调策略与UniGRPO强化学习算法,提升跨模态任务性能。MMaDA在多项任务中表现优异,适用于内容创作、教育辅助、智能客

ScrapeGraphAI

ScrapeGraphAI 是一款基于大型语言模型(LLM)的智能网络爬虫工具包,能够高效提取结构化数据。其核心功能包括 SmartScraper、SearchScraper 和 Markdownify,支持自然语言驱动的爬取、多页面搜索、自适应爬取、多模型和多平台兼容,可生成代码并存储为 CSV 或 JSON 格式。适用于市场分析、学术研究、产品信息收集等场景。

Claude 4

Claude 4 是 Anthropic 公司推出的新一代 AI 模型,包括 Claude Opus 4 和 Claude Sonnet 4。Claude Opus 4 擅长复杂任务和长时间运行的工作流,如代码生成、优化和调试,具有强大的推理能力。Claude Sonnet 4 在编程和推理上表现优异,适合日常使用。两者均支持工具使用、记忆管理、多模态处理等功能,提升 AI Agent 的效率与实

Joy industrial

Joy Industrial是京东工业推出的行业首个以供应链为核心的工业大模型,基于“工业大模型+供应链场景应用”双引擎,构建全栈产品矩阵。该模型提供需求代理、运营代理、商品专家、集成专家、关务代理等AI产品,解决数据孤岛、协同冲突等问题,助力产业降本增效、合规保供,推动产业链结构性变革,支持制造业供应链优化、商品质量与合规管理、企业数字化转型及出海支持等场景。

DMind

DMind是由DMind研究机构开发的专为Web3领域优化的大型语言模型,针对区块链、去中心化金融和智能合约等场景深度优化。采用RLHF技术对齐,性能在Web3专项测试中表现优异,推理成本仅为大模型的十分之一。提供DMind-1和DMind-1-mini两个版本,适用于复杂任务和轻量级部署。支持智能合约生成与验证、DeFi交易代理部署、多轮对话交互等功能,基于Transformer架构,结合专业数

Playwright MCP

Playwright MCP是微软推出的轻量级浏览器自动化工具,基于Model Context Protocol(MCP)协议,通过Playwright的可访问性树实现与网页的交互,无需依赖视觉模型或截图。支持多种浏览器,提供丰富的交互功能,如点击、拖动、输入文本等,适用于与大语言模型结合使用。具备结构化数据交互、网络请求管理、测试脚本生成等功能,支持无头和有头模式运行,适用于自动化测试、网页操作

RelightVid

RelightVid是一款基于时序一致性扩散模型的视频重照明工具,由多所高校和研究机构联合开发。它支持通过文本提示、背景视频或HDR环境贴图对视频进行细粒度和一致的场景编辑,具备全场景和前景保留重照明功能。该模型在预训练图像照明编辑框架基础上扩展,引入时序层提升视频重照明效果,并结合真实视频与3D渲染数据生成高质量数据对。RelightVid在保持时序一致性和照明细节方面表现突出,适用于影视制作、

Gemini Diffusion

Gemini Diffusion是谷歌推出的实验性文本扩散模型,通过逐步细化噪声生成文本,具备快速响应、生成更连贯文本和迭代细化等能力。与传统自回归模型不同,它能并行生成文本,提高效率。在外部基准测试中表现优异,速度更快,适用于内容创作、代码生成、数学问题解答和文本编辑等场景。用户需加入等待名单获取访问权限。

JoyAgent智能体平台

JoyAgent智能体平台是京东云推出的企业级一站式AI智能体搭建与发布平台,聚合大模型、知识库、插件和工作流等能力,支持低代码开发,用户可通过自然语言快速构建基于大语言模型的AI智能体。平台提供丰富的预置模板和工具,支持一键发布到微信、企业微信等主流IM和协同办公渠道,适用于智能客服、OA自动化、热点营销等场景,帮助企业提升业务效率和客户体验。

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。