推理

CAR

CAR(Certainty-based Adaptive Reasoning)是字节跳动联合复旦大学推出的自适应推理框架,旨在提升大型语言模型(LLM)和多模态大型语言模型(MLLM)的推理效率与准确性。该框架通过动态切换短答案和长形式推理,根据模型对答案的置信度(PPL)决定是否进行详细推理,从而在保证准确性的同时节省计算资源。CAR适用于视觉问答(VQA)、关键信息提取(KIE)等任务,在数学

Shop like a Pro

Shop Like a Pro是一款基于AI技术的购物助手,支持用户在Perplexity平台上完成商品搜索、分析与购买的一站式服务。它通过整合全网评论数据,为用户提供个性化推荐和全面的产品信息,同时具备一键结账、视觉搜索及商家信息展示等功能,旨在提升购物效率并帮助用户做出明智决策。

Absolute Zero

Absolute Zero是由清华大学LeapLab团队联合多家机构研发的新型语言模型推理训练方法,采用自我生成任务并自主解决的机制,实现无需人工标注数据的自我进化学习。模型通过与环境交互获取反馈,持续优化推理能力,支持归纳、演绎和溯因等多种推理模式。其核心在于推动模型从依赖人类监督转向环境反馈驱动,具备跨领域泛化能力和零数据训练特性,适用于通用人工智能、代码生成、数学推理等多个应用场景。

MNN

MNN是一个由阿里巴巴开源的轻量级深度学习推理框架,支持多种模型格式和网络结构,具备高性能、低内存占用及跨平台特性。它通过模型量化、计算图优化和异构计算等技术,在移动设备和嵌入式系统中实现高效推理。主要功能涵盖模型转换、硬件加速、内存优化及多模型支持,广泛应用于图像识别、语音处理、智能家居及工业检测等领域。

BlockDance

BlockDance是由复旦大学与字节跳动联合开发的扩散模型加速技术,通过识别结构相似的时空特征(STSS)减少冗余计算,提升推理效率达25%-50%。结合强化学习的BlockDance-Ada模块实现动态资源分配,平衡速度与质量。适用于图像、视频生成及实时应用,支持多种模型,兼顾高效与高质,适用于资源受限环境。

Bamba

Bamba-9B是一种基于Mamba2架构的解码型语言模型,专注于提升大型语言模型的推理效率,尤其擅长处理长文本。它通过恒定的KV-cache设计解决了内存带宽瓶颈问题,并在多个开源平台上得到支持。Bamba-9B不仅具有高效的吞吐量和低延迟的特点,还支持模型量化及长上下文长度扩展,适用于多种应用场景,包括机器翻译、智能客服、内容推荐、自动摘要和社会媒体监控等。

MMaDA

MMaDA(Multimodal Large Diffusion Language Models)是由普林斯顿大学、清华大学、北京大学和字节跳动联合开发的多模态扩散模型,支持跨文本推理、多模态理解和文本到图像生成等多种功能。其采用统一的扩散架构和模态不可知设计,结合混合长链推理微调策略与UniGRPO强化学习算法,提升跨模态任务性能。MMaDA在多项任务中表现优异,适用于内容创作、教育辅助、智能客

RAGEN

RAGEN是一款开源的强化学习框架,专为在交互式和随机环境中训练大型语言模型(LLM)推理代理而设计。它基于StarPO架构,支持多轮轨迹优化和多种强化学习算法,如PPO和GRPO。通过MDP形式化和渐进式奖励归一化策略,RAGEN提高了训练的稳定性和效率。其模块化设计支持多种环境,适用于智能对话、游戏AI、自动化推理等多个领域。

Ivy

Ivy-VL是一款专为移动端和边缘设备设计的轻量级多模态AI模型,具备约30亿参数,专注于视觉问答、图像描述及复杂推理等任务,能够有效降低计算资源需求,同时在多模态任务中表现出色,尤其适用于增强现实、智能家居及移动学习等领域。

Open Deep Research

Open Deep Research 是一个开源 AI 智能体,支持多语言模型和 Firecrawl 数据提取,用于执行复杂的研究任务。它提供统一 API 和 Next.js 框架,具备实时数据处理、结构化信息提取及多维度分析能力,适用于文献综述、行业分析、投资研究等场景。