OpenAI神秘模型,再次被Sam Altman提及
【/h/]免责声明:本文来自微信官方账号AIGC开放社区(ID:AIGCOPEN),由AIGC开放社区撰写,授权站长之家转载发布。
【/h/]5月6日,OpenAI首席执行官萨姆·奥特曼在社交平台上分享了一条推文“我是一个出色的GPT二号聊天机器人”。
【/h/]4月30日,奥特曼提到模特非常喜欢GPT 2号。有理由说,一个在2019年发布的只有15亿个参数的开源模型被提及两次是不寻常的。
【/h/]更令人惊讶的是,GPT-2被短暂地列入了名单。LMSYS的聊天机器人arena的性能可与GPT-4、Claude Opus和其他型号相媲美。
【/h/]许多人猜测,这是OpenAI即将发布的GPT 4.5和GPT 5吗?但在5月2日的公开演讲中,奥特曼否认了这一说法。
【/h/]GPT-2开源地址:https://github.com/openai/gpt-2.
【/h/]论文地址:learners.pdf https://cdn.openai.com/better-language-models/language市。
【/h/]从GPT 2号表现来看,有一件事是肯定的。OpenAI掌握了一种训练和微调模型的新方法,可以训练小参数模型的性能,也可以训练大参数模型的性能,就像微软刚刚发布的Phi-3系列模型一样。
【/h/]因此,对于手机和平板电脑等移动设备来说,这可能是一种高性能和低功耗的模式。因为微软、谷歌、Meta等科技巨头都发布了针对移动终端的大型机型,唯独OpenAI没有发布。
【/h/]此外,苹果正在与OpenAI和谷歌协商在iOS18中使用GPT系列机型,以增强用户体验和产品性能。非常擅长营销的奥特曼用这种“新锅抄旧菜”的方法进行病毒式宣传,以赢得苹果公司的信任。
【/h/]一方面可以极大地展示自身车型的性能和技术实力;另一方面,这给谷歌带来了压力。虽然其Gemini系列面向移动终端,但在市场应用中并没有太大的反响。
【/h/]开发移动终端的大型模型有一个非常相似的技术特征,即参数非常小。例如,微软刚刚发布的Phi-3系列模型只有13亿个参数。谷歌Gemini系列的最小型号只有18亿。
【/h/]这是因为参数越大,模型中的神经元越多,对硬件的要求也越高。如果要在移动端部署大型模型,则需要考虑电池、存储空、计算能力、延迟、推理效率等因素,以便在有限的硬件空内发挥最大性能。例如,直接使用具有1000亿个参数的模型,电池可能在询问几次之前就耗尽了。
【/h/]此外,在移动设备中推理的效率也非常高。目前手机的延迟是web和PC的几倍。如果想更好地利用语音助手、实时翻译和文本问答,这也是使用小参数模型的主要原因之一。
【/h/]因此,OpenAI使用2019年开放的15亿参数GPT-2模型是最合适的,该架构也基于Transformer,基本上是GPT-3和GPT-4的祖先模型。
【/h/]当然,如果OpenAI将来真的发布一个用于移动终端的小参数模型,它肯定不会被称为GPT-2,但它很可能会被称为GPT-4mini/little。