AI项目与工具

WorldSense

WorldSense是由小红书与上海交通大学联合开发的多模态基准测试工具,用于评估大型语言模型在现实场景中对视频、音频和文本的综合理解能力。该平台包含1662个同步视频、3172个问答对,覆盖8大领域及26类认知任务,强调音频与视频信息的紧密耦合。所有数据经专家标注并多重验证,确保准确性。适用于自动驾驶、智能教育、监控、客服及内容创作等多个领域,推动AI模型在多模态场景下的性能提升。

AddressCLIP

AddressCLIP 是一种基于 CLIP 技术的端到端图像地理定位模型,由中科院自动化所与阿里云联合开发。它通过图像与地址文本对齐和地理匹配技术,实现街道级别的精确定位,无需依赖 GPS。模型在多个数据集上表现优异,适用于城市管理、社交媒体、旅游导航等多个场景,具备良好的灵活性和多模态结合潜力。

VideoJAM

VideoJAM是Meta开发的视频生成框架,旨在提升视频运动连贯性。通过联合学习外观与运动信息,在训练阶段同时预测像素和运动特征,并在推理阶段利用动态引导机制优化生成结果。该技术具备高度通用性,可适配多种视频生成模型,无需调整训练数据或模型结构,已在多项基准测试中表现优异,适用于影视、游戏、教育等多个领域。

Umax

Umax是一款基于AI的面部分析工具,通过上传自拍照提供颜值评分、面部特征分析及个性化改进建议。具备进度跟踪、虚拟化妆、滤镜等功能,帮助用户提升外貌与自信。适用于日常美容、自我提升及美学学习,适合关注形象管理的用户。

Qwen2

Qwen2是由阿里云通义千问团队开发的大型语言模型系列,涵盖从0.5B到72B的不同规模版本。该系列模型在自然语言理解、代码编写、数学解题及多语言处理方面表现出色,尤其在Qwen2-72B模型上,其性能已超过Meta的Llama-3-70B。Qwen2支持最长128K tokens的上下文长度,并已在Hugging Face和ModelScope平台上开源。 ---

Stable Video 3D (SV3D)

Stable Video 3D(SV3D)是一款由Stability AI公司开发的多视角合成和3D生成模型,能够从单张图片生成一致的多视角图像,并进一步优化生成高质量的3D网格模型。该模型在视频扩散模型基础上进行改进,提供更好的质量和多视角体验。主要功能包括多视角视频生成、3D网格创建、轨道视频生成、相机路径控制以及新视角合成。SV3D在新视角合成方面取得显著进展,能够生成逼真且一致的视图,提升

Fluently

Fluently 是一款基于AI的英语学习工具,能够根据用户水平生成个性化学习计划,涵盖发音、语法、词汇和流利度训练。用户可在真实场景中与AI导师进行对话练习,并获得即时反馈。支持Zoom等主流会议平台,帮助用户在实际交流中提升英语表达能力,适用于面试模拟、日常练习、国际交流等多种场景。

Multimodal Live API

Multimodal Live API是谷歌推出的一种支持文本、音频和视频交互的AI接口,具备低延迟、实时双向通信和自然语言处理能力。它允许用户通过多种输入方式与AI互动,并支持会话记忆和外部功能调用,广泛应用于客户服务、在线教育、远程医疗、视频会议和娱乐等领域。

炫图AI

炫图AI是一款利用AI技术的多功能照片编辑软件,具备物体添加、替换、消除、抠图及背景更换等功能。它还支持一键高清和尺寸调整,并提供了超过100种风格化选项,满足用户的不同需求。软件操作简单,功能强大,适合个人、商业及教育等多个场景应用。 ---

GenType

GenType是一款基于AI技术的字母生成工具,利用Google Imagen 2模型,用户可通过输入提示词生成26个具有特定风格的英文字母。该工具支持字母的单次重置、复制、保存以及组合成单词或短语,广泛应用于平面设计、品牌标识、社交媒体内容创作及教育领域,兼具灵活性和易用性。