强化学习

WebRL

WebRL是一种由清华大学与智谱AI共同研发的自我进化的强化学习框架,专注于通过开放大型语言模型优化网络代理性能。该框架采用动态任务生成与结果监督奖励机制,并结合自适应强化学习策略,解决了任务稀缺和反馈稀疏等问题。其显著提升了开源模型在WebArena-Lite基准测试中的表现,具备自我进化、持续改进的特点。

Agent Q

Agent Q是一种自监督代理推理和搜索框架,结合了引导式蒙特卡洛树搜索(MCTS)、AI自我批评及直接偏好优化(DPO)等技术。该框架通过迭代微调和基于人类反馈的强化学习进行自我改进,在网页导航和多步任务执行中表现优异。Agent Q的主要功能包括引导式搜索、自我批评、迭代微调、多步推理任务和零样本学习。它在电子商务、在线预订服务、软件开发、客户服务、数据分析和个性化推荐等领域具有广泛应用前景。

Gemini 2.5 Pro (I/O 版)

Gemini 2.5 Pro (I/O 版) 是 Google 推出的多模态 AI 模型,具备强大的编程能力和多模态内容生成功能。它能基于提示词或手绘草图快速生成交互式 Web 应用、游戏及模拟程序,并支持代码生成、编辑与优化。该模型在多个基准测试中表现优异,适用于 Web 开发、游戏制作、教育工具构建及企业级应用开发等领域。最新版本进一步提升了性能与灵活性。

RLCM

RLCM是由康奈尔大学开发的一种基于强化学习的文本到图像生成框架,通过微调一致性模型以适应特定任务的奖励函数,显著提升生成效率与图像质量。其核心技术包括强化学习、策略梯度优化及任务导向的奖励机制,适用于艺术创作、数据集扩展、图像修复等多个领域,具有高效的推理能力和对复杂任务的适应性。

TÜLU 3

TÜLU 3是艾伦人工智能研究所发布的开源指令遵循模型,提供8B、70B及未来的405B版本。它通过后训练技术显著提升了模型在数学、编程和推理等方面的表现,同时支持多种任务处理和创新的后训练方法,适用于自然语言处理、教育、编程开发及内容创作等多个领域。

k0

k0-math是一款基于强化学习和思维链推理技术的新一代数学推理模型,由月之暗面推出。它在多个数学基准测试中表现出色,特别是在中考、高考、考研及竞赛级数学题库中的成绩超越了OpenAI的o1-mini和o1-preview模型。k0-math具备深入思考、规划解题思路以及自我反思优化的能力,适用于教育辅导、在线教育平台、竞赛培训、学术研究及自动化测试与评分等多个场景。

PaSa

PaSa是由字节跳动研发的基于强化学习的学术论文检索系统,能够模仿人类研究者行为,自动调用搜索引擎、分析论文内容并追踪引文网络,提供精准全面的学术文献检索服务。其核心技术包括Crawler和Selector两个智能体,结合强化学习优化,显著提升了搜索效率与准确率。PaSa适用于学术研究、高校教学、知识产权分析等多个领域,具备高效检索和复杂查询处理能力。

PRefLexOR

PRefLexOR是由MIT开发的一种基于偏好优化和递归推理的自学习AI框架,能通过多步推理、反思和优化提升输出准确性。其核心技术包括ORPO和DPO,结合“思考令牌”与“反思令牌”实现更精准的推理路径对齐。具备动态知识图谱构建、跨领域推理和自主学习能力,适用于材料科学、信息学等复杂场景,支持开放域问题解决和持续优化。

Auto Think

Auto Think是快手Kwaipilot团队开源的KwaiCoder-AutoThink-preview自动思考大模型,针对深度思考大模型的“过度思考”问题,提出了一种全新的训练范式。模型融合“思考”和“非思考”能力,能根据问题难度自动切换模式,提升复杂任务表现。在代码和数学类任务中,性能提升可达20分。其技术原理包括最小提示干预和多阶段强化学习,适用于视频生成、文案创作、智能客服等多个场景。