今夜双十一苹果发布会,根据相关传闻,大概率会带来3款“换芯不换壳”的MacBook,这也是首批搭载Apple Silicon苹果自研芯片的Mac产品。 在此前的WWDC20上,最令人兴奋的,莫过于苹果Mac自研芯片计划的发布。众所周知过去15年,Mac一直采用Intel处理器。 其实换平台这件事,苹果不是第一次搞。在2005年,苹果曾从IBM的PowerPC转向Intel。 苹果转向ARM Mac,新产品必然面临一段时间的阵痛期:原先macOS上的软件需要适配,基于ARM架构的iOS编译App生产力专业度又不够。 其中最关键的部分其实在于开发者,因为需要他们将原来的软件应用迁移到新平台上来,但问题是兼容性并不理想。 根据库克在WWDC20上的说法,基于自研芯片的Mac产品年底(就在双十一今夜)即将推出,而软件迁移则需要两年时间。 过去15年,Intel给了苹果很长一段甜蜜期,但随着挤牙膏的力度越来越小,苹果终究还是抛弃了阿英。 好消息是,苹果早在两年前,就向世人展示了自研芯片的强大性能,搭载A12X的iPad Pro跑分甚至超过了搭载Intel i5处理器的2020款MacBook Air。 而且无需风扇,意味着机身可以做得更轻薄紧凑,功耗续航也更胜一筹。 目前,苹果已经拥有A(iPhone、iPad、Apple TV、HomePod)、M(协处理器)、S(Apple Watch可穿戴)、H(AirPods Pro音频)、W(体感控制)、T(安全隐私)、U(空间感知)自研芯片矩阵,再加上未来的5G通讯芯片,可以说是相当全面了。 虽然Intel不怎么YES,但自研芯片需要过程沉淀,苹果一路走来也是“芯”事重重。其中有一些比较关键的时间节点:2008年,收购P.A半导体,掌握复杂低功耗芯片设计; 同年,Keller、Srouji等芯片大佬加入苹果; 2010年,收购芯片设计厂商Intrinsity,积累移动端SoC设计经验; 同年,iPhone 4惊艳发布,搭载首款自研A4芯片; 2013年,A7芯片发布,采用64位Cyclone架构; 2016年,Mac开始搭载T系列安全芯片; 2017年,A11 Bonic发布,首款自研GPU,首次搭载神经网络引擎; 2019年,iPhone搭载U1空间感知芯片; 2020年,宣布ARM Mac自研芯片计划。可以看到,苹果自研Mac芯片的信心,很大程度来自iPhone上A系列芯片的积累。而面相开发者的测试版Mac mini,搭载的也是A12Z芯片。 苹果将这个计划命名为「Apple Silicon」,并以高性能、低功耗两者兼得为目标。未来,12核甚至16核的Apple自研芯片,说不定还真可以威胁到Intel和AMD的桌面级性能。 不知道大家有没有发现,过去苹果所有的硬件设备中,只有macOS设备是基于英特尔X86架构的,其余硬件基本全基于ARM架构芯片,甚至包括HomePod音箱也是搭载的A8芯片。 所以,Apple Silicon自研芯片计划的推出,是苹果构建「硬件生态大一统」的关键一步。 未来,开发者或许只需要编写一套代码,就可以在不同的苹果设备之间通用。这么来看,自研芯片大一统,也从硬件层面促进了软件生态的体验统一。 对于开发者,一套代码,iOS、iPadOS、macOS三平台运行;对于用户,一次付费,iPhone、iPad、Mac、甚至Apple TV共享服务。 苹果已经为开发者做好了充分的准备工作,在这样的生态服务理念中,硬件设备只是载体,软件或者内容服务不应该受平台限制。 再大胆一些,说不定基于底层硬件芯片的统一架构,苹果系统生态未来也会走向大一统。无论任何Apple Device,均运行AppleOS操作系统。 当然,这套AppleOS还可以根据硬件形态的不同进行适配变形。比如一部iPhone,手持操作时是iOS,连接显示器后则呈现为macOS。是不是越来越有“母公司”TNT内味儿了哈哈。 言归正传,今天的Mac,已不再是小众选择,特别是对于苹果生态内的用户来说,macOS拥有着极高的粘性,是绝对的生产力工具不二之选。 比如某资深果粉,看到新出的ThinkPad X1或者XPS 13,觉得设计做工都不错,但还是吐出一句:“可惜是个Windows”,扎心了老铁。 其实就算Intel挤牙膏,依靠Apple和Mac的品牌溢价,苹果也足以在PC市场舒舒服服地躺着赚钱。但他们却选择了一条高风险的路,自研芯片、架构迁移都是需要极大耐心的工程。 但我觉得也正因如此,苹果才配去致敬Mac背后的那些人。Intel Mac or ARM Mac,这都不重要,最可贵的是那颗不断追求的“芯”/心。 Think Different,这种精神成就了Apple,也成就了每个拥有这种思想的人。
WWDC2018刚刚过去一个不到一个月,开发者们是不是对iOS12的新特性蠢蠢欲试,在WWDC2018上,库老板发布了iOS12,watchOS 5,macOS Mojave和tvOS12。这次发布会升级了ARKit2,CoreML2,新增了Create ML。那么,我们一定很好奇新增的这个Create ML是什么?和CoreML又有什么关系,下面我带大家看一下。
如果你用过CoreML的话,你应该知道,使用CoreML的前提是你需要机器学习已经训练好的模型,这个模型怎么来呢?使用tensorflow等神经网络框架训练出来,然后通过苹果的工具转换成相应的格式才能使用,但是这样的话,你需要学习相应的神经网络算法,写相应的神经算法去训练模型,这样学习成本成吨的上涨。这个时候,Create ML的出现,能够让你更加轻松的训练出模型,苹果是不是很贴心呢!
下面我将一步一步的演示最基本的做法! 我们都知道CoreML主要用于识别图像和自然语言,那么,我们这一篇以识别图像作为演示。
电脑系统:macOS Mojave Xcode版本:Xcode 10 beta2 开发语言:Swift4.2
目标:分类猫、狗、狮子、老虎、羊的图片 1.数据预处理 首先我们要收集猫、狗、狮子、老虎、羊的不重复图片数据,里面的80%的图片当做训练集,20%的图片当做测试集。 新建一个叫Training Data的文件夹,这个文件夹当做训练集的总文件夹,再这个文件夹再新建要分类的文件夹。
推发布温馨提示: