
在去年的WWDC中,Apple超负荷的Apple Intelligence仍然有余味。在2025年6月10日凌晨,WWDC25(记录的传输)的主要演讲刚刚结束,与AI有关的各方仍然不时为人们叹息。苹果今年在AI上宣布的许多新功能,包括实时的翻译命令和快捷方式,并不是那么创新。在视觉智能方面,我们不仅落后于六到七年的Google镜头功能,而且还远远没有达到2025年上半年的许多Android竞争对手的AI/Agent的产品。但是,请看完整的场景,您可以说,您只能对苹果的智能和平均用户产生深度影响,并且平均使用了一个均等的用户,并且会有一个平均用户。这是基础模型的框架,是Apple为开发人员提供的False的AI模型的框架。这允许苹果开发人员可以轻松地拥有大型语言模型,以访问应用程序,而无需支付代币的费用。这意味着开发人员无需在没有加载用户的情况下提供基于LLM的功能和服务,进行纯推理,并担心通过调用Cloud LLM API造成的令牌成本。当然,无需将成本花费给用户。开发人员可以使所选的负载模型更好,用户将从中受益。苹果去年的纯端端苹果发布了一套AI产品,特征和技术功能,可以为开发人员提供“苹果情报”的名称。这些已发表的东西大多数都被延迟了,甚至完全是“蒸气”(蒸发软件,广告宣传的软件,但票数延迟)。这确实打击了外部世界的判断,即苹果与AI是多么成功。但是,苹果仍然是世界上最好的智能手机发货。即使巨型参数在Clou中缓慢移动D LLM,该公司仍然对开发人员如何将AI技术应用于其项目的意见。这是客观且毫无疑问的。在今年的WWDC25中,我看到苹果要锻炼这种声音。告诉开发人员:您是否提供用户的功能?没问题。借助Apple提供的Endanese模型,LLM的推理可以在设备上完全在本地完成,而无需网络不仅可以保护用户的隐私,还会造成云成本。基本模型框架是Apple提供开发人员的强大工具。基本模型位于Intelapple Igancia的核心,去年仅用于苹果自己的产品和特征。截至今天,苹果为开发人员开设了基本模型,第三方应用程序直接使用这些基本模型,而我的特征为用户提供了新的体验。例如,“ Kahoot!”该地方显示的教育产品可以使用端侧模型来生成一组自定义用户问题s。另外,Alltrails是国外远足玩家的重要产品,可以为用户提供他们在山区和危险情况下甚至需要的帮助。
那么什么是特定的基本模型?去年,苹果在个性化的Endrees/Apple的个性化CHATGPT模型之后推出了具有30亿个参数和更新的Endanese语言模型。 - 至少有两个已知类别(模型,特定和Apple的模型尚未向非开发人员提供更具体的信息)。当前,基本模型的框架与Swift兼容(其他语言的状态尚不清楚),开发人员只需要一些代码行即可访问和接受LLM的各种特征,例如内容的生成和工具的调用。但是,开发人员有太多的选择,例如DeepSeek,Claude或series,Gemini ...以及几种针对特定场景培训的官方模型和版本。为什么要使用苹果的基础?我需要做吗?苹果的价值提价萨尔非常直接。简而言之,使用这些LLM有直接的经济成本。用户数量和活动/粘性的数量越高,调用云API和生成令牌的成本就越大。鉴于这一成本,新的名人公司可以通过风险资本筹集资金,而大型制造商可以补贴现金储备的使用。结果,今天的用户已经习惯了很长时间的LLM产品。但是,对于中小型开发人员,尤其是独立开发人员而言,这已成为一个非常实用的问题。用户刚刚下载了该应用程序,并希望体验AI功能。他一开始就看到“本月有三个自由一代限制”……如果您的竞争对手有一个重要的制造商,那么您如何与他们竞争? Apple使用称为基本模型框架的免费开放式型号来调用其iPhone/iPad/Mac的本地计算机功率,以快速,有效地执行LLM推理个人来解决其用户的需求。没有严格的资本链来支付云API的费用。它将不再使用Pair Price Strategiesto支付令牌的成本进行“转换”。您可以强烈,清楚地选择自己喜欢的业务模型并使用户感到舒适:如果您是中小型开发人员,听起来不错吗?对于开发人员和用户来说,这是一个很好的情况。当然,苹果有三场胜利。 “已经很晚了,但是在这里,”著名的AI版开发人员兼苹果分析师约翰·格鲁伯(John Gruber)几天前写了一篇有趣的博客文章。他指出,苹果在各种重要产品/技术方面始终落后于竞争对手。但是,您必须承认,在公司存在的历史中,苹果实际上并没有失去重要的范式水平技术。旋转。例如,Apple的Safari浏览器和Webkit浏览器的内核2在003初推出。这是Netscape Bro的八年WSER。这曾经大喊微软的业务,甚至三年后,这是三年前。 “ Com Bubble。” Safari。如果应用了这种逻辑,则被迫参与AI时代的苹果需要与当前Safari/Webkit相当的新产品组合。好消息是,正如本文开头所述,iPhone发货和市场份额的好处太大了。不管苹果在AI时代退休了多少,都不可能否认现实。很长一段时间以来,苹果已经有足够的语音来定义用户如何使用AI(用于iPhone/iPad/Mac/Mac/Vision的产品),而不是定义其产品的样子。 Operai可以获取前Apple设计负责人Jony Ive,以尝试开发一种新的“完全本地”设备。但是,OpenAI还可以达成协议,即它将成为Apple生态系统中唯一的“全球合作伙伴”,即唯一的外部基础模型提供商。您认为苹果是Detrásde Openai吗?不,否则,苹果将不得不openai。相反,根据信息,Openai进入了Apple生态系统,并向Apple以及iOS中最古老的Google(例如Apple的预定搜索引擎)向Apple支付“通行费”,以成为预定的基础模型。如果ChatGpt用户的每月订阅率为20美元,那么Apple可能会达到30%。而且这一收入大约等同于净收入。 Apple Copper Openai赚钱并伪装成开发人员和最终用户,这令人惊讶吗?在2009年苹果财务报告的第一季度,由于乔布斯的严重疾病,库克(Cook)担任苹果第二任首席执行官,被称为“库克的信条”。我说的话。其中一段确定了这一点。我们认为,我们只需要参与一个我们生产的产品背后关键技术的市场,我们需要受到控制,我们可以做出重要的贡献。结合约翰·格鲁伯(John Gruber)的分析,这个想法融合了d在一句话中。苹果需要创建一个运行AI产品/服务/LLM的操作员的设备。然后,您必须使用此设备/载体来定义AI将如何使用它,而不是定义AI如何开发其产品。 WWDC25之后,外界可以通过观察和评论苹果的工作来采用这种新观点。 Apple Intelligent,最后是微型更新,让我们看一下WWDC25的其他新AI发行。 Apple的实时翻译终于整合了iOS/iPados/Maco的一组实际时间翻译功能,这些功能已达到行业参考级别(2或3年前)。目前,真实的时间翻译允许三个应用程序:信息,电话和faceTime。所有翻译都可以在边缘完全完成。在发送消息时,用户可以用自己的语言输入它,请参阅用户界面中的实时转换为实时的外国文本传输输出,然后手动单击以发送。同样,另一方CA发送的信息n可以自动通过用户的本地用户界面进行翻译。在电话上,首先您可以说原始文本,然后双方都可以收听翻译的语音阶段时间。一方可以说话,而另一部分可以看到翻译的字幕genmoji和Image PlaygroundMoji。例如,如果将懒惰和灯泡组合在游乐场中,用户可以调用Chatgpt多模型模型以生成各种随机样式和样式的照片。您可能会理解,这是Apple Operai 4o的官方案例。视觉智能的视觉智能以前与查找卡马拉的照片兼容。 WWDC上的另一个无语更新是渴望:结算筛选/交互搜索。例如,您可以将屏幕捕获中的元素直接调用到App Store应用程序进行搜索。另外,您可以读取屏幕捕获的日期,时间和位置,并将其添加到日历元素,注释等。它具有代理功能这允许用户在屏幕上响应其屏幕上的内容而无需屏幕截图并在控制屏幕时直接替换它们。当然,我知道苹果可以有两个理由这样做。 1)它的能力不如Google/Android制造商好。 2)出于隐私问题,用户必须进行屏幕截图,然后单击识别的智能视觉按钮。快捷方式承认了Apple Intelligence,该智能使开发人员可以对APRUN进行多次更改并改编,从而使用户可以快速为应用程序生成直接访问。我不知道有多少人可以使用快捷方式。世界各地必须有数十人。