算力决定软件,软件定义硬件,软硬整合决定交互。
传统算力(冯诺依曼计算机)本质是按照确定逻辑和动态数据执行的确定流程。也就是说给现实世界的所有需求写好脚本。他在特定状态下走特定脚本的输出,是 100% 确定的。
脚本都是死的,所以软件展现出来的多样性和柔软,都是表象。所以,必须花非常非常大的代价,去规训全球几十亿人,学会运用这些脚本。这是为何“交互”成为一个听起来很高端的词的原因。
这的确也是一个伟业。我们花了几十年的时间,让全球所有人都理解了何为“对象”,何为“命令”,都学会了对特定的对象执行某种命令,最终得到脚本的输出。而他,可能是用户需要的答案。
所以 GUI 的基本逻辑,其实是由传统的冯诺依曼算力的基本特征决定的。只不过是脚本足够多,交互的限制和规训足够好,让你有了计算机懂我的假象。
而加速算力时代,超大规模神经网络完全颠覆了传统算力,LLM 经过训练,可以掌握某种超越数据,也超越事先编排好的脚本的“规律”。而代价,就是他不能保障同样状况下输出的 100% 的确定性。
这种算力的特征,决定了他不一定需要“对象”,“命令”的逻辑,他也可能理解用户的“欲望”,并且想办法得到用户想要的“答案”。
而这才更符合人的本能,人天生会表达欲望,然后期待得到答案。
而当我们有了答案之后,怎么告诉用户,其实就是一个价值非常低,也非常简单的事情了。
不是说加速算例时代,GUI 会消失,而是运用某种交互方式提供 solution 这个事情的价值,在迅速降低。
甚至加速算力可以有能力自主选择某种交互方式给用户交付 solution 。“交互”和过去几十年不同,不再是一个需要精英人类解决的,耗费过高成本的重要问题了。
当通向答案的隧道竣工?
原来盘山公路上的减速带,转角镜子,引导标记,弯道角度,爬坡设计等等技能,不会消失。但是,没那么重要了。
所以,因为算力发生了根本性的变化,可能很快,“交互”这个词,就没那么酷了。
而我们理解了这个,才能把有限的资源,投入到为用户提供更本质价值的地方去。
传统算力(冯诺依曼计算机)本质是按照确定逻辑和动态数据执行的确定流程。也就是说给现实世界的所有需求写好脚本。他在特定状态下走特定脚本的输出,是 100% 确定的。
脚本都是死的,所以软件展现出来的多样性和柔软,都是表象。所以,必须花非常非常大的代价,去规训全球几十亿人,学会运用这些脚本。这是为何“交互”成为一个听起来很高端的词的原因。
这的确也是一个伟业。我们花了几十年的时间,让全球所有人都理解了何为“对象”,何为“命令”,都学会了对特定的对象执行某种命令,最终得到脚本的输出。而他,可能是用户需要的答案。
所以 GUI 的基本逻辑,其实是由传统的冯诺依曼算力的基本特征决定的。只不过是脚本足够多,交互的限制和规训足够好,让你有了计算机懂我的假象。
而加速算力时代,超大规模神经网络完全颠覆了传统算力,LLM 经过训练,可以掌握某种超越数据,也超越事先编排好的脚本的“规律”。而代价,就是他不能保障同样状况下输出的 100% 的确定性。
这种算力的特征,决定了他不一定需要“对象”,“命令”的逻辑,他也可能理解用户的“欲望”,并且想办法得到用户想要的“答案”。
而这才更符合人的本能,人天生会表达欲望,然后期待得到答案。
而当我们有了答案之后,怎么告诉用户,其实就是一个价值非常低,也非常简单的事情了。
不是说加速算例时代,GUI 会消失,而是运用某种交互方式提供 solution 这个事情的价值,在迅速降低。
甚至加速算力可以有能力自主选择某种交互方式给用户交付 solution 。“交互”和过去几十年不同,不再是一个需要精英人类解决的,耗费过高成本的重要问题了。
当通向答案的隧道竣工?
原来盘山公路上的减速带,转角镜子,引导标记,弯道角度,爬坡设计等等技能,不会消失。但是,没那么重要了。
所以,因为算力发生了根本性的变化,可能很快,“交互”这个词,就没那么酷了。
而我们理解了这个,才能把有限的资源,投入到为用户提供更本质价值的地方去。