妙笔是阿里巴巴最新开源的中文文生图模型,它与经典的Stable Diffusion 1.5版本结构相同,兼容现有的lora、controlnet等主流插件及其权重。妙笔的特点是用户可以直接输入中文进行文生图操作,生成的图像效果逼真。例如,输入“枯藤老树昏鸦,小桥流水人家。水墨画。”,妙笔能够理解诗句中的意境并生成相应的图像。
CrewAI是一个创新的框架,专为角色扮演中的AI代理提供自动化设置。它通过促进AI代理之间的合作,使得这些代理能够共同解决复杂问题。CrewAI的核心特征包括角色定制代理、自动任务委派、任务管理灵活性和流程导向。它既可以使用OpenAI的API,也可以通过Ollama使用本地的大模型来运行程序。
Google Gemini是由谷歌推出的一款人工智能多模态大模型,于2023年12月6日发布。这个模型具有强大的功能,能够同时识别文本、图像、音频、视频和代码五种类型的信息。它还能理解并生成主流编程语言的高质量代码,如Python、Java、C++,并且进行了全面的安全性评估。
Yi大模型是由李开复博士领导的AI公司“零一万物”发布的一款开源的中英双语预训练大模型。这个模型在多个性能指标上取得了国际最佳性能认可,被称为“全球最强开源模型”。Yi-34B模型特别之处在于它拥有全球最长的200K上下文窗口,能够处理40万汉字的超长文本输入,这在语言模型中是非常重要的,因为它对于理解和生成与特定上下文相关的文本至关重要。
GPT-4是OpenAI开发的最新一代大型语言模型。它能够接受文本和图像输入,生成类似人类的文本输出。它还能处理长达2.5万字的内容,是ChatGPT的8倍以上,使其在生成文本、延伸对话或分析文件方面更加强大。GPT-4还具备分析图像的能力,能够识别图片中的元素并生成相关的文本。
Grok-1是马斯克旗下AI创企xAI发布的一款开源AI大模型。它是一个混合专家(Mixture-of-Experts,MOE)大模型,其参数量达到了3140亿,远超OpenAI GPT-3.5的1750亿,是迄今参数量最大的开源大语言模型。旨在用作聊天机器人背后的引擎,用于包括问答、信息检索、创意写作和编码辅助在内的自然语言处理任务。
Llama 2是Meta AI推出的新一代大型语言模型(LLM),参数规模从70亿到700亿不等。它是为对话场景而优化的,称为Llama 2-Chat,能够在多数基准上超越开源的对话模型,并且在人类评估的有用性和安全性上,可能是闭源模型的合适替代品。
书生·浦语 InternLM 是由商汤科技与上海AI实验室联合香港中文大学和复旦大学共同开发的新一代大型语言模型。它是在过万亿token数据上训练的多语千亿参数基座模型,具有较高的知识水平,尤其在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀。
EMO (Emote Portrait Alive) 是阿里巴巴集团智能计算研究院的研究团队开发的一个音频驱动型肖像视频生成框架。具体来说,EMO系统基于音频信号驱动来生成肖像视频。用户只需要提供一张参考图片和一段音频文件(例如说话、唱歌的声音),EMO就能够根据音频内容生成一个生动的视频,视频中的人物会展现出丰富的面部表情和多变的头部动作,仿佛照片中的人物正在唱你所制定的语言或歌曲。
Adobe Firefly Image 2 是Adobe推出的一款生成式人工智能模型,建立在Firefly图像模型的基础上,专为设计师和创作者提供更强大、更智能的图像生成能力。它通过简单的文字描述,可以生成高质量的图像、文字效果和鲜艳的调色板。
Mini-Gemini是一个简单而有效的框架,用于增强多模态视觉语言模型(VLMs),由中国香港中文大学和 SmartMore 的研究人员共同推出。Mini-Gemini支持一系列密集和MoE大型语言模型(LLMs),从2B到34B。为了增强视觉token,该框架建议在不增加视觉token数量的情况下,利用额外的视觉编码器进行高分辨率细化。同时,Mini-Gemini还构建了一个高质量的数据集,以促进精确的图像理解和基于推理的生成,从而扩大当前VLM的操作范围。
言犀是京东自营智能人机交互平台,助力企业服务数智化转型。以AI技术驱动,从文字、语音到多模态交互,从对话智能到情感智能,聚焦体验、效率与转化,旨在打造新一代智能人机交互平台,面向不同行业和客户场景助力企业服务和营销实现数智化转型升级。
百度智能云客悦是百度推出的智能客服平台。其旗下的智能外呼平台是一款集合NLP(自然语言处理)、ASR(自动语音识别)、TTS(语音合成)等人工智能技术,提供公有云服务并支持同时面向多名用户,自动发起外呼通话的智能化产品。
昇思MindSpore是由华为自研的一种适用于端边云场景的全场景深度学习框架,MindSpore提供了友好的设计和高效的执行,旨在提升数据科学家和算法工程师的开发体验,并为Ascend AI处理器提供原生支持,以及软硬件协同优化。
紫东太初大模型是中国科学院自动化研究所和武汉人工智能研究院推出的新一代大模型。它从三模态走向全模态,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务。这个大模型具备更强的认知、理解、创作能力,为用户带来全新的互动体验。
商量拟人大模型是商汤科技推出的一款AI拟人大模型,它支持个性化角色创建与定制、知识库构建、长对话记忆、多人群聊等功能,可实现行业领先的角色对话、人设及剧情推动能力。该模型广泛应用于情感陪伴、影视/动漫/网文IP角色、明星/网红/艺人AI分身、语言角色扮演游戏等拟人对话场景。
Ferret-UI是苹果公司与哥伦比亚大学研究团队联合发布的一个多模态AI大语言模型。它专为增强对移动端用户界面(UI)屏幕的理解而设计,具备引用、定位和推理功能。这个模型能够理解手机屏幕上的内容并执行任务,专注于移动端和用户交互。
华知大模型是由同方知网与华为合作开发的中华知识大模型。它是一个专注于知识服务与科研行业的全栈自主可控的大模型,旨在覆盖政企文教等多个行业场景,并提供30多项通用能力体系。华知大模型的核心特色能力包括智能写作、学术搜问、AI伴读、标准智能问答、机构业务知识智能问答以及图书馆读者智能服务系统等。
Imagen 3是Google DeepMind开发的最新文生图大模型。它能够根据文本提示生成高质量、高分辨率的图像,具有更好的细节和丰富的光照效果。这个模型支持多种视觉风格,从照片般逼真到油画质感,甚至黏土动画场景。Imagen 3还改进了对自然语言提示的理解,简化了生成所需图像的过程,并采用了最新的安全和责任技术,包括隐私保护和内容安全。
讯飞星火大模型是科大讯飞发布的一个基于深度学习的自然语言处理模型,以中文为核心,具备跨领域多任务上的类人理解和生成能力。注册免费领取1500万Tokens,该模型对标ChatGPT,并在多个领域表现出色。
Veo 是 Google DeepMind 开发的一种先进的视频生成模型。它能够生成1080p高分辨率、长时长的高质量视频。Veo 支持多种电影和视觉风格,能够准确捕捉文本提示的细微差别,并提供创意控制。这个模型旨在使视频制作更易于访问,并在叙事、教育等领域开启新的可能性。
腾讯混元DiT是一个基于Diffusion transformer的文本到图像生成模型,也是业内首个中文原生的DiT架构文生图开源模型。该模型具有中英文细粒度理解能力,能够与用户进行多轮对话,根据上下文生成并完善图像。
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。
殷契文渊是一个甲骨文AI协同平台,它提供了丰富的甲骨文资料库,包括图片、释文、研究论文等。利用人工智能技术,帮助用户更高效地进行甲骨文的自动识别和解读。
Video-LLaVA是由北京大学ChatLaw课题组开发的一款视频问答模型。它基于Transformer架构,能够处理视频和问题,通过自注意力机制来捕捉二者之间的关联信息,并可以回答有关其内容的问题,它准确地描述了这些媒体中的视觉效果。这个模型通过在大量视频数据上进行预训练,使得它能够理解丰富的视频特征和问题语义,进而在视频问答任务上取得了先进的性能,该技术还可用于标记图像和视频。
Seed-TTS是由字节跳动开发的一系列大规模自回归文本到语音(TTS)模型。它能够生成高度自然、与人类语音几乎无法区分的语音。这个模型特别擅长学习语音上下文、说话人相似度和自然度等方面的特征,从而产生质量极高的语音输出。
Qwen2是由阿里云通义千问团队开源的新一代大语言模型。这个系列包括了不同规模的解码器语言模型,从0.5B到72B不等,涵盖了中文和英文以及其他27种语言的高质量数据。Qwen2的设计旨在提高模型在自然语言理解、代码编写、数学解题和多语言处理方面的能力。
阿里云百炼是基于通义大模型、行业大模型以及三方大模型的一站式大模型开发平台。面向企业客户和个人开发者,提供完整的模型服务工具和全链路应用开发套件,预置丰富的能力插件,提供API及SDK等便捷的集成方式,高效完成大模型应用构建。
InstructAvatar是一个先进的AI框架,它使用自然语言界面来控制2D头像的情绪和面部动作。这个系统允许用户通过文本指令来精细控制头像的表情和运动,从而生成具有情感表现力的视频。
孟子生成式大模型(孟子 GPT)是由澜舟科技研发的一款功能强大的生成式可控大语言模型。它能够通过多轮对话,帮助用户在特定场景中完成各种工作任务,包括内容生成、语言理解、知识问答、推理、代码理解和生成、金融任务等。