本人背景:8年大前端开发,做过硬件相关的大健康产品,有过AIGC C端产品开发经验,现在的工作和硬件(具身机器人)/AI都有一点关系。
个人理解:AI 操作系统的下一步,应该是在交互方式上的改变。现在的PC主要输入方式是鼠标键盘,移动端主要是触屏,交互方式一般是launcher点选icon打开app使用其预设的功能。
以后的AI终端很可能会更多的使用各种传感器,比如麦克风、摄像头,直接从听觉、视觉的层面获取用户输入,甚至某些场景下可以配合心电传感器、触觉传感器,乃至脑机接口直接采集或识别生物信息,分析出用户的状态和意图,直接处理给出预期的结果,这个结果不一定是通过屏幕显示,可能是语音回答、可能是直接通过网络控制局域网或者云端的设备或服务,也可能是通过机器人终端执行某些具体动作……
所以在我看来,其实现在各种系统和设备所谓的加入“AI”都只是在现有形态上加入了“访问AI的便捷入口”,深入一点的也就是把AI给出的结果变为系统支持的action去执行,其实也还是很初级的阶段。发展到后面,应该是要弱化系统和终端设备的存在,系统并不一定需要界面和各种应用暴露给用户,只要能够提供输入->AI->输出的能力即可,只是不同设备由于输入(传感器的种类和数量)设备和输出方式(比如具身机器人就能做工作,说话,显示表情,能联网控制等)的不同而展现出不同的能力。
苹果4月发布了Ferret-Ul通过识别收集屏幕上能执行的任务的多模态模型。
有传闻苹果下一代系统要上AI功能,国内国外大厂都在扎堆喊口号,也在推出各种大模型,那到底什么才是未来的"AI 操作系统"呢?