个人信息保护法已经来了,但是已经没人抱有希望,该拿到的都得到了,不该拿到的也悄悄留下了。
画个像,录个音,慢慢开启摄像头,记录下你的路径,保存下你的输入历史,真正做到了百花齐放。
海量的数据养育了人工智能,那人类的角色究竟是什么?
答案呼之欲出,
人肉干电池,喂养数据培育巨头
,献完青春献子孙,忠贞不二爱国情。
我想先给大家说几个人名,图灵、香农、贝塔朗菲和维纳。
图灵在二战破译德军密码的时候搞出了图灵机,香农阐明了信息论,告诉我们信息是如何流动的,贝塔朗菲发展了系统论,也就是认为工程需要复杂条件和要素的合理配置,维纳是控制论的代言人,信息流通也好,复杂计算也好,都不是无目的的狂想,而是奔着某种目标去的。比如钱学森老先生,就是工程控制论的行家里手。
正是在这些人的鼓捣下,我们今天的计算机、互联网媒体才真正发展起来,但是因为他们的理论门槛过高,长时间里这些人和事并不为人所知,也只有图灵因为图灵计算机科学奖还算盛名在外。
而今天我们说到大数据和人工智能,好像都是非常fashion的概念,2016年阿尔法狗战胜李世石真正让AI成为人尽皆知的新名词,而这些大师和他们的所学好像更是非常久远的存在。
其实这是错觉,第一届人工智能大会是在1956年于英国达特茅斯召开,基本上和大师们是同时代的存在。
理论是理论,现实中计算机组成的集大成者,采用的都是冯·诺依曼架构,这位老兄在参加曼哈顿工程的时候就意识到,当时的计算机结构有点问题,主要是不通用。
这里的不通用的意思就是以往的计算机是特定类型的计算工具,而且用途单一仅是用于计算的机器
,比如今天的超级计算机,功能很强大,但要是拿来打游戏显然是不太行的。
而冯诺依曼架构简单来说,就是分门别类,把计算机各部分该干啥都预先设计好,需要哪块就用哪块,管输入就专管输入,计算就靠CPU(中央处理器),比如文字处理,一般就用CPU就够,但要是打游戏或者画图,最好还是配块GPU。
所以现代的计算机不单单是用于计算的机器,这也是现代计算机可以通用化的真正原因,个人PC、芯片制造商也就此发家。
☉
手机、电脑和超算,基本都在这个框架下各自发展。
机器总归是要帮助我们处理信息完成工作的,这时候需要召唤二进制。
所有的信息和数据,不管文字还是视频从底层来说,都是0和1组成的
,所以Word文档能和虚幻引擎在一台电脑上共存。
也有不信邪的,比如苏联老大哥搞过三进制,0和1,还有个-1,1958年造出过三进制计算机Сетунь,但是老大哥市场化动力不足,最终项目无疾而终,起了个大早,赶了个晚集。
至于那些量子计算机、光学计算机等奇形怪状,先挖个坑,有空再唠。
到这个阶段,计算机算是发展的明明白白了,在技术的推动下,人类进入了互联网文明,发展出了互联网经济,工业时代需要的是电力和石油,而信息时代需要的是数据。
大自然当然是长不出数据来的,唯一能“供电”的,就是你我以及诸位了
。所以不要觉得是大数据时代我们的个人隐私才具有价值,它们一直都是宝贵的财富(生产要素),只是大数据和人工智能让这一切变得更显性和便捷了。
从计算机走向消费品的那一刻起,就注定会有这么一天,这是技术发展的自生逻辑,不因我们的个人意志而改变。
现代计算机和人工智能起源于20世纪中叶,到现在已经是长大成人,按照冯诺依曼的架构原理,需要处理的内容是越来越多,那就加模块。
第一次注水,是GPU的出现,原名叫做 Graphics Processing Unit,直译为图形处理器,俗称显卡,是CPU发展到一定阶段出现的补充物。
CPU一般负责通用计算,简单理解就是算数,但是随着计算机的发展,尤其是Windows系统的攻城略地,图形化界面(GUI)以及立体模型的需求越来越多。这其实也符合人性,DOS系统和原生Linux那种对着命令敲代码的电脑用法,绝对不如直观的东西看着舒服,普通老百姓显然不会喜欢。
有需求就有市场,1999年英伟达发布GeForce 256,而且GPU这个名字也是从此开始大规模运用。具体参数就不报了,今天看来就是玩具,重要的是它开创了GPU这个概念。
今天在电脑上配有独立显卡还能当个卖点,但是手机一般就会搞集成设计,比如SoC,高通、海思家的产品都是如此,这是因为手机空间有限,一寸空间一寸金,能省就省。
另一个原因就是手机是纯图形化的,对于GPU的运算需求更普遍。我想大家没见过拿着手机敲代码的吧。
现在,还是英伟达,花了69亿收购了以色列Mellanox后推出了新的数据处理单元DPU,即Data Processing Unit,产品名BlueField-2、BlueField-2X,英伟达这次目的很明确,再复制一把GPU的辉煌。
先别激动,成不成还两可呢,
数据时代肯定会到来,巨头们都在跑马圈地,但未必DPU就会是最后的赢家
,因为入局的实在是太多了。
CPU/GPU/NPU/TPU/DPU,把这一堆放到你眼前,让你猜一猜他们都是干啥的,谁又能在数据时代笑到最后呢?
现在机器学习CPU也能做,但是数据吞吐量很有限,学生学习还好说,真正搞研究和工程应用,比如把用户数据拿到了怎么分析,一般还是要上GPU。CPU干一天的活,GPU几个小时就搞定了。