我们正在经历一次静悄悄、但本质性的AI范式转换。 它的意义不亚于Transformer本身。 过去一年里,关于AI发展,出现了两种观点的分化: 一边是“AI增长放缓、模型到顶、预训练无用论” 另一边则 … Continue reading GPT-5.1内幕:OpenAI内部命名规则生变
标签: transformer
Databricks呼吁美国AI行业拥抱开源:这是中国能够领先的关键因素
IT之家 11 月 15 日消息,据外媒 TechCrunch 今日报道,Databricks 联合创始人 Andy Konwinski 对“美国在 AI 研究领域的领导地位”被中国取代表示担忧。 他 … Continue reading Databricks呼吁美国AI行业拥抱开源:这是中国能够领先的关键因素
Transformer作者重磅预言:AI无寒冬,推理革命引爆万亿市场!
导读:LLM逼近上限?图灵奖得主Yann LeCun和Richard Sutton联手唱衰,却被Transformer之父Kaiser回击! AI没有寒冬,只有资本与算力的热浪! Transforme … Continue reading Transformer作者重磅预言:AI无寒冬,推理革命引爆万亿市场!
手机能跑的3B推理模型开源,比Qwen 3-4B还快,超长上下文不降速
作者 | 李水青 编辑 | 心缘 智东西10月9日报道,昨日,以色列AI创企AI21 Labs开源轻量级推理模型Jamba Reasoning 3B。该模型有30亿个参数,可在包括手机、电脑在内的多种 … Continue reading 手机能跑的3B推理模型开源,比Qwen 3-4B还快,超长上下文不降速
AI 架构 Transformer 再进化:谷歌新方法突破长文本处理
IT之家 10 月 9 日消息,科技媒体 marktechpost 昨日(10 月 8 日)发布博文,报道称谷歌公司推出了选择性注意力(Selective Attention)方法,可以提高 Tran … Continue reading AI 架构 Transformer 再进化:谷歌新方法突破长文本处理
Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升 4 成
5 月 30 日消息,近日 Meta 团队开发了一款名为 Megabyte 的 AI 模型以抗衡 Transformer,据称 Megabyte 解决了 Transformer 模型所面临的问题,并且 … Continue reading Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升 4 成

