领导干部应有怎样的“AI观”
2025-03-30

文章来源:《青岛日报》2025年3月30日    作者:徐梦蝶

        当前,青岛正加快推动包括DeepSeek在内的大模型与数字政府业务融合创新。对领导干部而言,如何认识、应用、规范AI,不仅关乎治理效能,更考验价值立场。在这场变革中,干部既不能“谈AI色变”,更不能“唯AI是从”,需要在认知、实践、伦理三重维度上,构建科学的“AI观”。

  认知上,克服“AI依赖”或“技术恐惧”。人工智能的本质是辅助工具,而非决策主体,这一认知是干部驾驭技术的逻辑起点。一方面,干部在实际操作中要防止过度技术依赖,避免将AI视为政策制定的“标准答案”。AI的优势是在已有数据的基础上进行分析,但其难以完全捕捉社会现实的复杂性和动态变化,更难以把握执法裁量中的情理平衡。干部需明确AI技术是提升效率的“加速器”,而非替代思考的“决策者”。另一方面,AI加速融入党政机关各项工作,让一些干部对新技术感到焦虑和恐慌,陷入排斥创新的保守心态。干部应成为学用AI的先锋队,以与时俱进、主动学习的态度纾解“技术变化太快”的焦虑。唯有破除认知迷雾、保持战略定力,才能在技术赋能与价值坚守的辩证统一中锻造新时代治理能力。

  实践上,以群众需求校准技术方向。AI技术应用的终极目标不是追求数据指标的“最优解”,而是以人的真实需求为中心重塑治理逻辑。AI的算法分析无法完全替代传统治理中的“现场感知”,其真正价值在于与传统治理经验的深度融合。例如,深圳“AI招商助手”虽将企业筛选效率提升30%,但干部仍需实地走访验证算法推荐企业的社会价值,因为机器无法判断企业是否存在环保隐患、劳资纠纷等深层问题。这充分说明,技术赋能的本质是“解放人力”,而非“替代人力”。当AI承担起公文审核、数据分拨等标准化工作后,干部应将更多精力投向机器难以触及的治理深水区——通过入户走访捕捉未被数字化的“沉默需求”,在矛盾调解中平衡法理人情,于政策执行中传递治理温度。唯有在“数据跑腿”与“脚板丈量”间找到动态平衡,才能让AI技术真正成为密切干群关系的“连接器”,而非制造数字鸿沟的“隔离墙”。

  伦理上,树牢底线风险意识。AI的“智能”属性与“伦理”要求始终是一体两面的存在——技术可以突破效率极限,但使用技术的人必须恪守价值准则。AI的快速发展也带来了许多伦理问题,从算法偏见加剧社会不公到数据滥用侵蚀公众信任,再到责任模糊消解治理权威,每一项隐患都在考验干部的伦理安全素养。技术失控的本质是人类价值理性的缺失,这是给所有使用AI技术群体的警示:技术或许没有立场,但驾驭技术的人必须锚定立场。应用AI技术时,干部不仅要了解AI在数据收集、存储、使用和传输过程中可能面临的隐私风险,知晓如何保护隐私和敏感数据的安全,还要认识到算法可能存在的偏见和不公平性,主动开展算法公平性审查,在关键决策中保留人工校验权限。总之,干部需以“预警雷达”意识审视技术副作用,唯有在效率追求与风险防范间保持清醒平衡,才能让人工智能真正成为公共利益的“护航者”,而非“掘墓人”。

  AI时代的干部,既要做善用技术的“创新者”,更需成为驾驭风险的“守门人”。科学的“AI观”绝非简单的技术操作指南,而是认知上求真、实践中求实、伦理上求善的系统思维。唯有克服认知误区把准方向、以群众需求校准应用路径、树牢风险意识把握底线,方能在智能浪潮中守住“治理为民”的初心,书写人机共治的现代化答卷。