专栏名称: MBB一点通
专注于:战略规划与执行、组织设计与变革、绩效管理与激励、薪酬设计与优化、运营效率提升、品牌建设与营销策划、供应链管理与优化、财务管理与风控、用工风险防控核心品类:《战略定位》《阿米巴经营》《爆品打造》《绩效薪酬》《财税咨询》《用工风险》
目录
相关文章推荐
51好读  ›  专栏  ›  MBB一点通

深度拆解基于AI时代的组织战略 ——从科层制到“人机共生体”的范式革命

MBB一点通  · 公众号  ·  · 2025-02-10 08:00

正文

引言: GPT-4 成为新员工——组织进化的奇点时刻


AI 不是简单的效率工具,而是引发组织基因突变的催化剂。传统金字塔结构正在崩塌,但新物种的进化方向充满不确定性。

本文提炼出 AI 时代的组织战略框架——“三脑协同、四力重构、五维进化”。供大家参考。

第一部分:AI颠覆传统组织的三大断裂带

一. 权力结构坍塌:从“中心化控制”到“算法平权”

在传统的组织架构中,科层制一直占据着主导地位。这种层级分明的结构,如同金字塔一般,权力集中在顶层,信息和决策沿着层级逐级传递。然而,随着AI技术的迅猛发展,这一历经岁月沉淀的权力结构正面临着前所未有的挑战。

麦肯锡的深入研究揭示了一个惊人的事实:中层管理者高达60%的决策工作,如今已能够被AI所取代。这意味着,在组织的决策流程中,大量原本由中层管理者承担的任务,AI凭借其强大的数据处理和分析能力,能够更高效、准确地完成。

例如,在市场分析和销售预测领域,AI可以快速收集和分析海量的数据,包括市场趋势、消费者行为、竞争对手动态等,从而得出更为精准的预测结果和决策建议。相比之下,人类中层管理者在处理如此庞大的数据量时,往往受到时间和精力的限制,且容易受到主观因素的影响。

然而,令人担忧的是,尽管这一趋势已然清晰,仅有12%的企业真正准备好对现有的权力体系进行重构。大多数企业仍然在传统的科层制框架内徘徊,难以割舍对旧有权力结构的依赖。这其中,既有对变革的恐惧,也有对未知的迷茫。变革意味着打破现有的平衡,可能会引发一系列的不稳定因素,如人员的重新配置、利益的重新分配等。而对于如何构建适应AI时代的新权力体系,许多企业缺乏清晰的认知和有效的策略。

字节跳动作为一家在科技领域极具创新精神的企业,率先迈出了探索的步伐。字节跳动毅然取消了职级公示,这一举措打破了传统职级体系所带来的权力壁垒。在传统的职级体系下,员工的晋升和发展往往受到职级的限制,晋升机会有限,且容易滋生论资排辈的现象。取消职级公示后,员工不再被职级所束缚,更加注重自身能力的提升和工作成果的展示。

同时,字节跳动推出了“需求广场”这一创新机制来取代传统的任务指派方式。在“需求广场”上,任何员工都拥有发起项目的权利。当员工发现市场机会或企业内部存在的问题时,他们可以在平台上发布项目需求。而AI算法则会根据项目的需求特点,从企业的资源库中精准匹配相应的人力、物力和财力资源。

例如,一个关于短视频新功能开发的项目,AI算法会根据项目所需的技术技能、经验要求等,筛选出最合适的开发团队成员,并调配相关的设备和资金。这种方式极大地激发了员工的积极性和创造力,让更多有想法、有能力的员工能够脱颖而出,同时也提高了资源的配置效率,使企业能够更加快速地响应市场变化。

尽管AI在决策和资源配置方面展现出了巨大的优势,但随之而来的算法黑箱问题却引发了严重的信任危机。以亚马逊的AI招聘工具为例,该工具在运行过程中被发现存在对女性的歧视问题。研究表明,由于训练数据中存在偏差,AI算法在筛选简历时,对女性求职者的评价普遍低于男性,导致大量优秀的女性人才被排除在外。这一事件暴露了“代码即权力”背后隐藏的伦理困境。

在AI决策过程中,算法就如同一个黑箱,其内部的运行机制和决策逻辑往往不为人所知。对于企业和员工来说,他们只能看到算法输出的结果,却无法理解算法是如何得出这些结论的。这种不透明性使得人们对算法的公正性和可靠性产生了质疑。如果算法的决策过程无法被解释、审计和推翻,那么它所拥有的权力就可能被滥用,从而对个人和组织造成损害。

因此,组织面临着一个全新且紧迫的课题:如何让算法变得可解释、可审计、可推翻。可解释性意味着算法的决策过程应该能够以一种人类可理解的方式呈现出来,让使用者明白算法为什么做出这样的决策。可审计性则要求建立相应的机制,对算法的运行过程和决策结果进行监督和审查,确保其符合公平、公正、合法的原则。而可推翻性则是在发现算法决策存在问题时,能够及时纠正,避免错误决策带来的不良后果。解决这些问题,不仅关乎企业的声誉和公信力,更是保障员工权益和组织健康发展的关键。

二. 能力体系重构:人类技能贬值曲线

在AI时代,知识和技能的更新速度犹如坐上了高速列车,不断加速。领英的数据清晰地显示了这一趋势:在2020年,一项技能的半衰期约为5年,这意味着在5年的时间里,该项技能的价值和适用性会减半。然而,到了2024年,这一半衰期急剧缩短至2.3年。这一变化表明,在当今快速发展的科技环境下,技能的更新换代速度正在成倍加快。

会计和客服等岗位首当其冲,受到了巨大的冲击。在会计领域,随着AI财务软件的广泛应用,许多基础的会计核算和报表编制工作,AI可以在短时间内准确完成,且出错率极低。例如,财务数据的录入和分类,原本需要会计人员花费大量时间和精力进行细致的操作,现在AI系统可以通过光学字符识别(OCR)技术和智能算法,快速、准确地完成。这使得会计人员所掌握的传统手工记账和简单财务分析技能的折旧率超过了70%。

同样,在客服岗位上,智能客服机器人的出现改变了传统客服的工作模式。智能客服可以7×24小时不间断地为客户提供服务,快速准确地回答常见问题,处理简单的业务咨询。这使得客服人员的一些基本沟通和问题解答技能的价值大幅下降。面对这样的变化,这些岗位的从业者如果不及时学习新的技能,提升自己的竞争力,就可能面临被淘汰的风险。

面对技能的快速贬值,MIT的研究指出,AI时代催生了一系列全新的、极为稀缺的“元技能”。其中,算法批判力是关键的一项。随着AI在各个领域的广泛应用,算法的公正性和准确性变得至关重要。具备算法批判力的人,能够敏锐地识别AI算法中可能存在的偏见和错误。例如,在数据分析算法中,可能会因为数据采集的局限性或算法设计的缺陷,导致分析结果出现偏差。算法批判力强的人可以通过对算法的深入理解和对数据的细致分析,发现这些问题,并提出改进的建议,确保算法的公平性和可靠性。

提示工程力也是AI时代不可或缺的技能。在与AI交互的过程中,准确地表达需求是获得有效结果的关键。提示工程力强的人能够清晰、准确地向AI传达自己的意图,从而引导AI生成符合预期的内容。例如,在使用AI进行文案创作时,使用者需要通过精确的提示,让AI了解文案的主题、风格、受众等要求,才能得到高质量的创作成果。如果提示不清晰或不准确,AI可能会生成与需求不符的内容。

人机协调力同样重要。 在AI与人类共同协作的工作场景中,如何实现两者的高效协同是一个关键问题。人机协调力要求人们能够理解AI的优势和局限性,合理分配任务,实现人与AI的优势互补。

例如,在医疗影像诊断中,AI可以快速识别影像中的异常特征,提供初步的诊断建议,但最终的诊断决策仍需要医生凭借自己的专业知识和临床经验进行判断。具备人机协调力的医生能够充分利用AI的辅助作用,同时发挥自己的专业优势,做出更准确的诊断。然而,目前这些新兴能力在人才市场上极为稀缺,形成了严重的能力断层,制约了企业在AI时代的发展。

三. 组织边界溶解:生态化反VS失控风险

随着AI技术的发展,组织边界正逐渐变得模糊,无边界协作成为了一种新的趋势。西门子作为一家工业巨头,积极开展了无边界协作的实验。西门子搭建了工业元宇宙平台,这一平台打破了传统组织边界的限制,允许供应商的AI直接接入其生产系统。

在传统的生产模式下,企业与供应商之间的信息传递和协作往往存在一定的障碍。信息的不及时和不准确可能导致生产计划的延误、库存的积压等问题。而通过工业元宇宙平台,供应商的AI可以实时获取西门子生产系统中的需求信息,如原材料的需求数量、交货时间等。同时,供应商的AI也可以将自身的生产进度、库存情况等信息反馈给西门子的生产系统。这种实时、高效的信息交互,使得双方能够更加紧密地协作。

例如,当西门子的生产系统预测到某一零部件的需求将在短期内大幅增加时,供应商的AI可以立即接收到这一信息,并根据自身的生产能力和库存情况,及时调整生产计划,确保零部件的及时供应。这种无边界协作模式极大地提高了供应链的效率,使得西门子的库存周转率提升了40%。库存周转率的提高意味着企业资金的占用时间缩短,资金使用效率提高,同时也降低了库存积压带来的风险,增强了企业的市场竞争力。

然而,在组织边界溶解的过程中,数据主权的问题日益凸显,引发了一场暗战。以丰田为例,作为一家在汽车制造领域具有重要地位的企业,丰田对技术和数据的安全性极为重视。由于担心使用ChatGPT可能导致技术泄露,丰田禁止员工使用这款热门的AI工具。

丰田的担忧并非毫无道理。ChatGPT作为一款基于大规模数据训练的语言模型,其数据来源广泛且复杂。如果员工在使用过程中不慎泄露企业的敏感信息,如产品设计图纸、生产工艺等,可能会给企业带来巨大的损失。然而,这一禁令也带来了负面的影响。由于ChatGPT在信息检索、创意启发等方面具有强大的功能,禁止员工使用使得企业在创新过程中受到了一定的限制。据相关数据显示,丰田的创新效率因此下降了25%。

这一案例反映了企业在面对组织边界溶解和数据主权保护时的两难境地。在追求无边界协作带来的效率提升和创新机会的同时,企业必须高度重视数据主权的保护。

如何在两者之间找到平衡,是企业在AI时代面临的一个重大挑战。企业需要制定更加完善的数据安全策略,加强对员工的培训和管理,同时探索更加安全可靠的协作技术和工具,确保在实现无边界协作的同时,保护好企业的核心数据和技术资产。
第二部分:AI时代组织战略框架——“三脑协同”模型

一. 技术脑:构建组织的数字神经系统
在AI时代,企业若想充分发挥AI的潜力,构建强大的AI中台架构至关重要。阿里巴巴的“ET大脑”范式为众多企业提供了极具价值的参考模型。

“ET大脑”范式由感知层、认知层和决策层构成,各层紧密协作,如同人体的神经系统,使企业能够敏锐感知市场变化,深入理解业务内涵,并做出精准决策。

1、感知层: 这一层犹如企业的“触角”,通过IoT(物联网)设备收集海量数据。阿里巴巴的IoT设备日均处理数据量高达100PB,这些数据涵盖了企业运营的各个方面,如供应链中的货物流动信息、生产线上的设备运行参数、市场端的消费者行为数据等。例如,在物流环节,通过安装在运输车辆、仓库货架等位置的IoT设备,实时收集货物的位置、温度、湿度等信息,确保货物在运输和存储过程中的质量安全。这些丰富的数据为企业的后续分析和决策提供了坚实基础。

2、认知层: 认知层是“ET大脑”的“智慧中枢”,拥有100多个行业模型库。这些模型基于大量的历史数据和先进的算法进行训练,能够对感知层收集到的数据进行深度分析和理解。以电商行业为例,通过对消费者的浏览记录、购买行为、评价反馈等数据的分析,认知层的模型可以精准地预测消费者的需求偏好,为个性化推荐提供有力支持。同时,在金融领域,模型可以对客户的信用风险进行评估,帮助企业制定合理的信贷政策。

3、 决策层: 决策层则是企业的“指挥中心”,依据感知层和认知层提供的信息,动态优化资源分配。在企业的生产运营中,决策层可以根据市场需求的变化、原材料供应的波动以及自身生产能力的状况,实时调整生产计划、人员调配和物资采购等决策。例如,当市场对某款产品的需求突然增加时,决策层能够迅速做出反应,调配更多的生产资源,确保产品的及时供应,从而提高企业的市场响应速度和竞争力。

要实现高效的AI中台架构,知识图谱构建和边缘智能部署是两个关键突破点。

1、 知识图谱构建:
美的集团在这方面取得了显著成果。美的集团拥有50年的制造经验,这些经验是企业宝贵的无形资产。通过将这些经验转化为3.2亿个知识节点,美的构建了庞大而精准的知识图谱。知识图谱能够将复杂的制造知识进行结构化表示,使机器能够更好地理解和运用这些知识。

例如,在产品设计阶段,设计师可以借助知识图谱快速获取相关的设计原则、材料特性、工艺要求等知识,提高设计效率和质量。在生产过程中,知识图谱可以帮助企业进行故障诊断和预测性维护。当设备出现异常时,系统可以根据知识图谱中的故障模式和解决方案,快速定位问题并提供相应的解决措施,减少设备停机时间,提高生产效率。

2、边缘智能部署:
宁德时代在电池领域的边缘智能部署堪称典范。宁德时代在电池中植入AI芯片,实现了电池故障的自诊断功能。传统的电池监测往往需要将数据传输到云端进行分析,这不仅存在数据传输延迟的问题,还可能因网络故障导致数据丢失。而边缘智能部署使得电池能够在本地实时处理数据,快速准确地检测到电池的潜在故障。

例如,当电池出现过热、过充、容量衰减等问题时,AI芯片能够及时感知并发出预警,同时将故障信息上传至云端,以便企业进行进一步的分析和处理。这种实时的故障自诊断功能大大提高了电池的安全性和可靠性,为新能源汽车等领域的发展提供了有力保障。

二、人类脑:进化组织的生物智慧
在AI时代,组织的人才结构需要进行深刻重塑,以适应新的技术和业务需求。“3:5:2黄金比例”为企业提供了一种合理的人才配置思路。

1、30%“AI训练师”
这部分人才肩负着将业务知识转化为机器可理解模式的重任。AI训练师需要深入了解企业的业务流程、行业知识和数据特点,以便为AI模型提供准确、有效的训练数据。

例如,在医疗领域,AI训练师需要与医生、医学专家密切合作,将医学知识和临床经验转化为数据标签,用于训练AI诊断模型。他们要对疾病的症状、诊断标准、治疗方法等有深入的理解,并能够将这些知识以机器能够理解的方式进行编码。在金融领域,AI训练师则要熟悉金融产品、交易规则、风险评估等业务知识,为AI金融风控模型提供高质量的训练数据,确保模型能够准确识别和评估金融风险。

2、50%“人机协调员”:
人机协调员在AI建议的基础上进行价值判断,是连接AI与实际业务的关键桥梁。AI虽然能够提供大量的数据和分析结果,但在实际应用中,还需要人类的专业知识和经验进行综合判断。

例如,在市场营销中,AI可以根据消费者数据提供个性化的营销方案,但人机协调员需要根据品牌定位、市场策略和企业目标,对这些方案进行评估和调整,确保营销活动的有效性和品牌形象的一致性。在投资决策中,AI可以分析市场趋势、企业财务数据等信息,提供投资建议,但人机协调员需要考虑宏观经济环境、行业竞争态势以及投资风险偏好等因素,做出最终的投资决策。

3、20%“伦理审查官”:
随着AI在企业中的广泛应用,伦理问题日益凸显,伦理审查官的作用不可或缺。他们负责监控算法偏见,确保AI算法的公平性和公正性。

例如,在招聘算法中,伦理审查官要检查算法是否存在对特定性别、种族、年龄等群体的偏见,避免因算法不当导致不公平的招聘结果。同时,伦理审查官还要设计人道主义熔断机制,当AI系统的决策可能对人类造成严重伤害或违背伦理道德原则时,能够及时中断系统运行。

例如,在自动驾驶领域,如果AI决策可能导致严重的交通事故,人道主义熔断机制应立即启动,采取紧急制动等措施,保障人员生命安全。

为了提升员工在AI时代的认知能力,微软开发的AI素养框架提供了清晰的路径。

1、L1(工具使用者):
处于这一层级的员工需要掌握基础提示工程。在与AI交互的过程中,准确的提示是获得有效结果的关键。例如,在使用AI写作工具时,员工需要学会如何清晰地表达文章的主题、风格、结构要求等,使AI能够生成符合需求的内容。在使用数据分析AI工具时,员工要能够准确地提出问题,引导AI进行针对性的数据分析。掌握基础提示工程可以帮助员工更好地利用AI工具提高工作效率,完成一些重复性、规律性的任务。

2、L2(流程改造者)
L2层级的员工着眼于重新设计人机分工界面。他们需要深入理解AI的能力和局限性,结合企业的业务流程,合理分配人与AI的工作任务。例如,在客户服务流程中,对于常见问题的解答可以由AI客服机器人负责,而对于复杂问题和客户投诉,则由人工客服进行处理。流程改造者要通过优化人机分工,实现两者的优势互补,提高整个业务流程的效率和质量。同时,他们还需要关注新技术的发展,及时调整人机分工模式,以适应业务的变化和发展。

3、L3(战略规划者)
L3层级的员工具备更高的战略眼光,能够预判AI引发的行业格局变化。他们需要对行业趋势、技术发展方向有深入的研究和理解,提前布局企业的战略方向。例如,在零售行业,随着AI技术在无人零售、智能供应链等方面的应用,战略规划者要预测这些技术将如何改变行业竞争格局,竞争对手可能采取的策略,以及企业应如何调整自身的业务模式和竞争策略。通过准确的预判,企业可以提前进行技术研发、市场拓展和人才储备,在激烈的市场竞争中占据先机。

三. 生态脑:建立跨物种协作网络
在AI时代,企业单打独斗的发展模式逐渐难以适应快速变化的市场环境,建立开放式创新平台成为必然趋势。宝马集团的AI创新工场为企业提供了一个成功范例。

1、向初创企业开放车辆数据(脱敏处理)
宝马集团将经过脱敏处理的车辆数据向初创企业开放,这一举措为初创企业提供了宝贵的创新资源。车辆数据包含了丰富的信息,如行驶里程、速度、油耗、故障记录等,这些数据对于开发自动驾驶算法、智能车联网应用等具有重要价值。例如,一些专注于自动驾驶技术研发的初创企业,可以利用宝马提供的数据,训练更精准的自动驾驶模型,提高自动驾驶系统的安全性和可靠性。同时,对于车联网应用开发的初创企业,车辆数据可以帮助他们更好地了解用户的驾驶习惯和需求,开发出更符合用户需求的应用程序。

2、联合开发自动驾驶算法,知识产权共享:
宝马集团与初创企业联合开发自动驾驶算法,充分发挥双方的优势。宝马集团在汽车制造领域拥有深厚的技术积累和丰富的工程经验,而初创企业则往往在AI算法、大数据处理等方面具有创新活力和技术优势。通过合作,双方可以实现资源共享、优势互补。在联合开发过程中,知识产权共享的模式进一步激发了双方的合作积极性。例如,当合作开发出一种新的自动驾驶算法时,宝马和初创企业共同拥有该算法的知识产权,双方都可以在各自的业务领域中应用和推广该算法,实现互利共赢。

3、风险共担:
失败项目由宝马承担70%成本:创新过程充满了不确定性,风险共担机制是开放式创新平台成功的关键。宝马集团承诺失败项目由其承担70%的成本,这一举措大大降低了初创企业的创新风险,鼓励更多初创企业参与到合作中来。对于初创企业来说,创新项目的失败可能导致资金链断裂和企业倒闭,而宝马的风险共担机制为他们提供了一定的保障。例如,在一个自动驾驶算法的研发项目中,如果由于技术难题或市场变化导致项目失败,宝马将承担大部分成本,初创企业只需承担较小比例的损失。这种风险共担机制不仅有利于吸引更多优秀的初创企业参与合作,也有助于建立长期稳定的合作关系,共同推动行业的创新发展。

在跨物种协作网络中,建立动态契约体系是保障各方权益和协作顺利进行的重要手段。埃森哲采用区块链智能合约管理自由职业者,为企业提供了一种创新的实践模式。

1、AI自动评估工作质量并支付报酬:
埃森哲利用AI技术对自由职业者的工作质量进行自动评估。AI可以根据预设的标准和指标,对自由职业者提交的工作成果进行客观、准确的评价。例如,在设计项目中,AI可以从设计的创新性、美观度、实用性等多个维度对作品进行打分;在软件开发项目中,AI可以通过代码审查工具评估代码的质量、规范性和功能完整性。根据评估结果,智能合约自动支付报酬,确保报酬支付的及时性和公正性。这种自动化的评估和支付方式不仅提高了管理效率,还减少了人为因素对评价结果的影响,保障了自由职业者的权益。

2、贡献度计入终身数字身份档案:
为了激励自由职业者持续提供高质量的工作,埃森哲将自由职业者的贡献度计入终身数字身份档案。这个数字身份档案记录了自由职业者在各个项目中的表现、工作成果、客户评价等信息。随着自由职业者在不同项目中的积累,他们的数字身份档案将变得更加丰富和有价值。例如,在未来的项目合作中,企业可以通过查看自由职业者的数字身份档案,快速了解其能力和信誉,从而更准确地选择合作伙伴。同时,对于自由职业者来说,良好的数字身份档案也有助于他们在市场上获得更多的机会和更高的报酬。

3、纠纷由DAO(去中心化自治组织)投票裁决:
在协作过程中,难免会出现纠纷。埃森哲采用DAO投票裁决的方式来解决纠纷,确保裁决的公正性和透明度。DAO是一种基于区块链技术的去中心化自治组织,由所有参与方共同组成。当纠纷发生时,相关信息将被上传至区块链,DAO的成员通过投票的方式进行裁决。由于投票过程是公开透明的,且所有成员都有平等的投票权,这使得裁决结果更具公信力。

例如,在项目交付时间、工作质量标准等方面出现纠纷时,DAO成员可以根据事实和相关规则进行投票,最终的裁决结果将得到各方的认可和执行。这种去中心化的纠纷解决机制,有效地维护了协作网络的稳定和健康发展。
第三部分:组织能力重构的四大战役

战役一:决策权再分配——从人类独裁到混合智能

在AI时代,组织的决策权分配正经历着深刻变革,从传统的人类独裁式决策向混合智能决策模式转变。这一转变源于AI技术在决策领域的广泛应用,它既能处理海量数据、快速提供决策建议,又存在局限性,需要人类的判断力和价值观进行补充。

为了更好地理解和管理决策权的再分配,引入决策光谱模型。在这个模型中,决策领域被划分为三个主要区域:

1、完全自动化区:
像库存补货和简单客服这类任务,具有明确的规则和流程,适合完全由AI自动化处理。以库存补货为例,AI可以实时监控库存水平,结合历史销售数据、季节因素、市场趋势等多维度信息,精准预测库存需求,并自动触发补货订单。这种自动化处理不仅速度快,而且准确性高,能够有效避免因人工疏忽或延迟导致的缺货或库存积压问题。在简单客服场景中,AI客服机器人能够快速响应常见问题,如产品信息查询、订单状态跟踪等,7×24小时不间断服务,极大提高了客户服务效率和满意度。

2、人机协同区:
产品设计和投资决策这类复杂任务,既需要AI的数据处理和分析能力,也离不开人类的创造力、经验和判断力。在产品设计方面,AI可以通过分析大量的市场数据、用户反馈和竞争对手产品信息,为设计师提供设计灵感和优化建议。例如,AI可以分析不同用户群体对产品颜色、功能、外观的偏好,帮助设计师确定产品的设计方向。但最终的设计决策,如产品的风格定位、品牌形象体现等,仍需人类设计师凭借专业知识和审美能力来完成。在投资决策中,AI可以对海量的金融数据进行分析,评估投资项目的风险和收益。然而,投资决策还涉及到宏观经济形势判断、行业发展趋势预测以及企业战略考量等,这些都需要人类投资者的经验和洞察力。

3、人类保留区:
商业伦理和战略取舍这类涉及到价值观和长远规划的决策,必须由人类主导。商业伦理决策关乎企业的社会责任和形象,如企业在环境保护、员工权益保障、消费者权益保护等方面的决策,需要人类基于道德和法律准则进行判断。战略取舍则涉及企业的发展方向和资源分配,如是否进入新市场、是否放弃现有业务等决策,需要综合考虑企业的长期目标、核心竞争力以及外部环境变化等因素,这些复杂的判断和权衡是AI目前无法完全替代的。

平安集团在保险理赔领域引入的“双流审核制”,是决策权再分配的成功实践。

1、AI初筛:
AI承担了85%标准化案件的处理工作。通过对大量历史理赔数据的学习和分析,AI可以快速准确地识别标准化案件,并依据预设的理赔规则进行初步审核。例如,对于一些小额的、事故原因明确的车险理赔案件,AI可以迅速核实事故信息、定损金额等,做出理赔决定,大大提高了理赔效率,缩短了理赔周期。

2、人类专家复核:
对于15%的复杂案件以及AI处理案件中的5%抽样,由人类专家进行复核。复杂案件可能涉及到复杂的事故责任认定、高额理赔金额、特殊保险条款解读等问题,需要人类专家凭借丰富的经验和专业知识进行深入分析和判断。同时,对AI处理案件的抽样复核,有助于发现AI可能存在的错误或偏见,保证理赔的公正性和准确性。

平安集团还创新地实施每月交换角色制度。在这个过程中,人类专家将自己的专业知识和经验传授给AI,通过对特殊案件的分析和讲解,让AI学习到更多复杂情况下的处理方式,不断优化其算法和模型。而AI也会通过数据和分析结果,挑战人类专家可能存在的偏见和思维定式。例如,AI可能发现人类专家在某些理赔判断上存在习惯性的偏差,通过数据对比和分析,促使人类专家反思和改进自己的判断方法,从而实现人机之间的相互学习和共同进步。

战役二:知识管理革命——从文档仓库到活体知识库
传统的知识管理模式,往往将知识存储在静态的文档仓库中,知识的更新、传播和应用效率较低。随着AI技术的发展,知识管理迎来了革命,向活体知识库模式转变,使知识能够动态更新、高效流动和精准应用。

知识流动新范式——腾讯文档AI助手:

1、自动提取会议纪要中的待办事项:
在会议过程中,AI助手能够实时记录会议内容,并利用自然语言处理技术自动提取会议纪要中的待办事项。它可以准确识别任务描述、责任人、时间节点等关键信息,并将其整理成清晰的待办事项清单,方便团队成员查看和执行。这大大提高了会议效率,避免了因人工记录不完整或理解偏差导致的任务遗漏或延误。

2、关联历史项目数据提供决策建议:
当团队成员在处理新的项目或决策时,腾讯文档AI助手可以关联历史项目数据,分析类似项目的成功经验和失败教训,为当前决策提供参考建议。例如,在策划一个新产品推广活动时,AI助手可以检索以往类似产品推广活动的数据,包括活动效果评估、用户反馈、成本效益分析等,帮助策划人员制定更科学合理的推广方案。

3、 预警知识孤岛:
AI助手会实时监测文档的访问情况,当发现某个文档超过30天未被访问时,会发出预警。这有助于团队及时发现那些被遗忘的知识,避免知识孤岛的形成。通过定期回顾和整理这些文档,团队可以将其中有价值的知识进行更新和整合,使其重新融入知识流动体系,为团队的工作提供支持。

4、波音公司知识晶体计划: 波音公司将飞机维修手册转化为AR(增强现实)指引,这一举措极大地提升了知识的应用效率。对于新手技工来说,传统的纸质维修手册查阅不便,且文字描述不够直观。而AR指引可以将维修步骤以三维立体的形式呈现在技工眼前,通过手机或智能眼镜等设备,技工可以更清晰地了解维修流程和操作要点。例如,在飞机发动机维修过程中,AR指引可以实时显示发动机各个部件的位置、拆卸顺序和安装方法,同时还能提供维修注意事项和故障排除建议。据统计,通过知识晶体计划,新手技工的维修效率提升了60%,有效缩短了飞机维修时间,提高了飞机的可用性。

战役三:文化基因改造——从畏惧AI到驾驭AI
在AI时代,组织文化需要进行深刻变革,从对AI的畏惧和排斥,转变为积极驾驭AI,实现人机协同发展。这一文化基因改造对于组织充分发挥AI的潜力至关重要。

德勤开发的组织AI成熟度模型,为组织文化诊断提供了有效的工具,该模型将组织对AI的接受和应用程度分为三个层级:

L1(自动化恐惧症): 处于这一层级的组织,对AI持谨慎甚至恐惧的态度,严格限制AI的应用范围。他们担心AI会取代人类工作,导致人员失业,同时对AI的可靠性和安全性存在疑虑。这种态度使得组织在AI时代的发展中处于被动地位,无法充分利用AI带来的效率提升和创新机会。

L2(工具迷恋症): 这一层级的组织过度依赖AI,将大量工作交给AI处理,而忽视了人类自身技能的培养和发展。虽然在短期内可能获得效率提升,但长期来看,可能导致员工技能退化,对AI产生过度依赖,一旦AI出现故障或错误,组织的正常运转将受到严重影响。

L3(理性共生体): 达到这一层级的组织,建立了人机互信机制。他们认识到AI和人类各有优势,能够充分发挥AI的数据处理和分析能力,以及人类的创造力、判断力和情感沟通能力,实现人机协同发展。在这种文化氛围下,组织能够积极探索AI在各个领域的应用,同时注重员工的技能提升和转型,促进组织的持续创新和发展。

NASA通过一系列举措进行文化重塑,成功向理性共生体层级迈进:

1、设立“AI透明日”:
NASA定期举办“AI透明日”活动,在这一天,公开AI算法的训练数据与逻辑。这一举措增强了员工对AI的信任,让他们了解AI决策的依据和过程,减少对AI的神秘感和恐惧感。同时,也有助于员工发现AI算法中可能存在的问题和不足,促进AI算法的优化和改进。

2、推行反向辅导:
NASA推行95后数据科学家指导高管理解AI的反向辅导制度。95后数据科学家作为数字原住民,对AI技术有着更深入的理解和应用能力。通过他们的指导,管理层能够更好地了解AI的发展趋势、应用场景和潜在价值,从而在战略决策中充分考虑AI的因素,制定更符合时代发展的战略规划。

3、错误赦免制度
为了鼓励员工积极探索和应用AI,NASA实行错误赦免制度。对于AI引发的非恶意失误,不予追责。这一制度减轻了员工在使用AI过程中的心理负担,激发了他们的创新积极性。例如,在AI辅助的太空任务模拟中,如果因为AI算法的缺陷导致模拟结果出现偏差,参与人员不会受到惩罚,而是共同分析问题,改进算法,从而推动AI技术在太空探索领域的应用和发展。

战役四:风险防控体系——给AI套上缰绳
随着AI在组织中的广泛应用,其潜在风险也日益凸显。为了确保AI的安全、可靠和合规应用,构建完善的风险防控体系,如同给AI套上缰绳,至关重要。

五重防护网构建:

1、伦理指南:
欧盟《AI法案》要求高风险AI系统留存决策日志,这是伦理层面的重要约束。决策日志记录了AI系统的决策过程和依据,便于在出现问题时进行追溯和审查。例如,在医疗AI诊断系统中,决策日志可以记录AI对患者病情的分析过程、诊断依据以及最终的诊断结果,一旦诊断出现错误或争议,相关人员可以通过查阅决策日志,了解AI的决策逻辑,判断是否存在伦理问题或技术失误。

2、技术熔断:
IBM研发的AI“紧急停止按钮”,是一种重要的技术防控手段。当AI系统出现异常行为,如失控、产生危险决策或违反安全规定时,操作人员可以立即按下紧急停止按钮,中断AI系统的运行,避免造成严重后果。例如,在自动驾驶系统中,如果AI出现故障,导致车辆行驶异常,紧急停止按钮可以迅速使车辆停止,保障乘客和行人的安全。

3、组织制衡:
设立直接向董事会汇报的首席AI伦理官,从组织架构上对AI的应用进行制衡。首席AI伦理官负责监督AI的开发和应用过程,确保其符合伦理道德和法律法规要求。他们可以参与AI项目的决策过程,对可能存在的伦理风险提出预警和建议。例如,在社交媒体平台的AI推荐算法开发中,首席AI伦理官可以评估算法是否存在信息茧房、偏见传播等问题,保障用户的信息获取权利和社会的公平公正。

4、保险转移:
安联推出的AI责任险,为组织转移AI风险提供了途径。该保险覆盖算法歧视、数据泄露等风险。一旦发生保险范围内的风险事件,保险公司将承担相应的赔偿责任,减轻组织的经济损失。例如,当一个金融机构的AI信贷评估系统被发现存在算法歧视,导致部分客户受到不公平对待并提起诉讼时,AI责任险可以帮助金融机构支付赔偿费用和法律费用。

5、社会监督:
开源部分算法接受公众审计,是社会监督的重要方式。通过开源算法,让公众、专家和社会组织能够对AI算法进行审查和评估,发现其中可能存在的问题和漏洞。例如,一些环保监测AI系统开源后,环保组织和公众可以对其数据采集、分析和报告过程进行监督,确保AI系统提供的环境数据真实可靠,为环境保护决策提供准确依据。

通过构建这五重防护网,组织能够有效降低AI应用风险,确保AI技术在安全、合规的轨道上为组织发展服务 。
第四部分:组织形态的五大进化方向

在人工智能快速发展的时代浪潮下,组织形态正经历着前所未有的变革,呈现出五大显著的进化方向。这些新的组织形态不仅是对传统组织模式的突破,更是适应数字化、智能化发展趋势的必然选择。

进化方向一:液态组织——像水流一样重组

在传统组织中,架构往往固定,人员岗位明确且相对稳定,这在一定程度上限制了组织的灵活性与创新能力。而液态组织则打破了这种固化模式,以更加灵活、动态的方式运作,如同水流一般,根据需求自由重组。

西门子作为一家在工业领域拥有深厚底蕴的企业,率先探索并实践了“敏捷细胞”模式。

1、基础架构由AI中台固化:
AI中台就如同组织的“神经系统”,它整合了企业的各类数据和算法,为整个组织提供了稳定的基础支撑。通过AI中台,西门子能够实时获取生产线上的设备运行数据、供应链的物流信息以及市场的需求变化等。这些数据经过AI的分析和处理,为组织的决策提供了准确依据。

例如,在生产调度方面,AI中台可以根据实时订单情况、设备产能以及原材料供应状况,优化生产计划,确保生产的高效进行。






请到「今天看啥」查看全文