模型

博看大模型

博看大模型是吉林外国语大学推出的一款多功能图书馆服务AI,它通过智能对话和信息检索功能,为用户提供了一个方便快捷的图书馆信息获取渠道。

Flux.1 Lite

Flux.1 Lite是一款轻量级AI图像生成模型,基于Transformer架构,通过参数优化和精度保持技术,在减少内存占用的同时提升运行速度。其主要功能包括高质量图像生成、资源优化、快速部署及广泛适用性,适用于个人创作、教育、游戏开发、数字艺术以及广告营销等多个领域。

VirtualWife

VirtualWife 是一款基于人工智能技术开发的虚拟角色项目,集成了自然语言处理、语音识别与合成、机器学习等功能,支持跨平台运行和个性化定制。其主要应用场景包括个人陪伴、心理健康辅导、在线教育、客户服务、娱乐互动和直播带货,致力于为用户提供智能化、多样化的交互体验。

MewX AI

MewX AI是一款集文生图、图生图、艺术二维码生成及室内设计于一体的生成式AI平台,支持多种风格的艺术创作与设计任务。主要功能包括MX绘画、MX Cute、MJ绘画、边缘检测和室内设计,广泛应用于艺术创作、平面设计、插画制作等领域。用户可以通过简洁的操作流程快速生成高质量图像,并灵活调整参数以满足个性化需求。

Transfusion

Transfusion是由Meta公司开发的多模态AI模型,能够同时生成文本和图像,并支持图像编辑功能。该模型通过结合语言模型的下一个token预测和扩散模型,在单一变换器架构上处理混合模态数据。Transfusion在预训练阶段利用了大量的文本和图像数据,表现出强大的扩展性和优异的性能。其主要功能包括多模态生成、混合模态序列训练、高效的注意力机制、模态特定编码、图像压缩、高质量图像生成、文本生成

DMind

DMind是由DMind研究机构开发的专为Web3领域优化的大型语言模型,针对区块链、去中心化金融和智能合约等场景深度优化。采用RLHF技术对齐,性能在Web3专项测试中表现优异,推理成本仅为大模型的十分之一。提供DMind-1和DMind-1-mini两个版本,适用于复杂任务和轻量级部署。支持智能合约生成与验证、DeFi交易代理部署、多轮对话交互等功能,基于Transformer架构,结合专业数

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

Eagle

Eagle是一个由英伟达开发的多模态大模型,专长于处理高分辨率图像,提高视觉问答和文档理解能力。该模型采用多专家视觉编码器架构,通过简单的特征融合策略实现图像内容的深入理解。Eagle模型已开源,适用于多个行业,具有高分辨率图像处理、多模态理解、多专家视觉编码器、特征融合策略和预对齐训练等特点。

MCP.so

MCP.so是一个MCP服务器导航与托管平台,整合超3000个MCP服务器,支持本地和远程通信接入。用户可按需选择服务器类型并进行配置,提升AI模型的功能与效率。平台提供服务器目录、信息共享、在线调试及提交功能,助力开发者与企业高效利用AI资源,推动技术协作与创新。

CustomVideoX

CustomVideoX是一种基于视频扩散变换器的个性化视频生成框架,能够根据参考图像和文本描述生成高质量视频。其核心技术包括3D参考注意力机制、时间感知注意力偏差(TAB)和实体区域感知增强(ERAE),有效提升视频的时间连贯性和语义一致性。支持多种应用场景,如艺术设计、广告营销、影视制作等,具备高效、精准和可扩展的特点。