语言模型

YouMind

YouMind是一款以AI为核心的内容整理与创作平台,支持从多种信息源中提取关键信息并生成创意作品。凭借Anthropic、OpenAI和Meta的顶级语言模型技术支持,它能够提供高效、稳定的服务,同时保障用户隐私安全。无论是学术研究、内容创作还是教育培训,YouMind都能显著提升用户的信息处理能力和创作效率。

WebLI

WebLI-100B是由Google DeepMind推出的超大规模视觉语言数据集,包含1000亿个图像与文本配对数据,是目前最大的视觉语言数据集之一。其设计旨在提升模型对长尾概念、文化多样性和多语言内容的理解能力。数据集通过网络爬取构建,保留了丰富的语言和文化多样性,支持多模态任务如图像分类、图像描述生成和视觉问答,广泛应用于人工智能研究、工程开发及教育领域。

VSI

VSI-Bench是一种用于评估多模态大型语言模型(MLLMs)视觉空间智能的基准测试工具,包含超过5000个问题-答案对,覆盖多种真实室内场景视频。其任务类型包括配置型任务、测量估计和时空任务,可全面评估模型的空间认知、理解和记忆能力,并提供标准化的测试集用于模型性能对比。 ---

ItiNera

ItiNera是一款由香港大学与麻省理工学院合作开发的智能城市行程规划系统,基于大型语言模型和空间优化技术,为用户提供个性化、高效、连贯的Citywalk路线规划服务。系统包含兴趣点数据库构建、请求解析、偏好感知检索、空间优化及行程生成五大模块,支持实时动态信息更新,适用于个人旅游、城市漫步、短途旅行等多种场景。

ViLAMP

ViLAMP是由蚂蚁集团与中国人民大学联合开发的视觉语言模型,专为高效处理长视频设计。采用混合精度策略,支持在单张A100 GPU上处理长达3小时的视频,提升处理效率并降低计算成本。具备长视频理解、关键信息提取、多任务处理等功能,适用于教育、监控、直播、影视制作及智能客服等场景。技术上通过差分关键帧选择与特征合并优化性能,实现精准且高效的视频分析。

LIMO

LIMO是由上海交通大学研发的一种高效推理方法,通过少量高质量训练样本激活大语言模型的复杂推理能力。其核心假设是“少即是多推理假设”,即在预训练阶段已具备丰富知识的模型中,复杂推理能力可通过精心设计的样本被有效激发。LIMO在多个数学推理基准测试中表现优异,且数据使用效率极高,仅需1%的数据即可达到显著效果。适用于教育、科研、工业和医疗等多个领域。

node

Node-DeepResearch 是一款基于 Gemini 语言模型和 Jina Reader 的开源 AI 智能体,支持持续搜索、多步推理和复杂问题处理。用户可通过 Web Server API 实时获取查询进度,适用于文献综述、市场调研、新闻报道等多种场景。项目具备灵活性和可扩展性,适合研究人员和开发者使用。

MSQA

MSQA是一个包含251,000个问答对的大规模多模态情境推理数据集,支持文本、图像和点云等多种数据形式,旨在提升具身AI在三维场景中的理解与推理能力。通过设计MSQA和MSNN两个基准测试任务,该工具不仅能够评估模型性能,还能促进具身AI和3D场景理解领域的研究进展。同时,它为开发更强大的情境推理模型提供了丰富的预训练资源。

SANA 1.5

SANA 1.5是由英伟达联合多所高校研发的高效线性扩散变换器,专用于文本到图像生成任务。其核心优势包括高效的训练扩展、模型深度剪枝、推理时扩展等技术,能够在不同计算预算下灵活调整模型性能。支持多语言输入,并具备开源特性,适用于创意设计、影视制作、教育等多个领域。实验表明,其生成质量接近行业领先水平,同时显著降低计算成本。

天壤小白大模型

天壤自研新一代通用语言大模型,具备面向多语言的对话互动、知识问答、逻辑推理等核心能力。