摘要:在人工智能深度渗透的社会背景下,传统以技能为核心的数据素养概念已无法满足AI时代的公民要求。本文从技术、批判、伦理与实践四个维度重新审视数据素养,强调其不仅是操作与分析数据的能力,更是一种社会—伦理素养。论文指出,AI时代真正的数据素养是一种“抵抗的素养”,旨在让个体在被算法塑造的环境中保持主动性、批判力与公民责任感,从而有效参与算法治理与社会决策。本文也呼吁数据教育从单纯技术训练转向批判与伦理并重的综合培养,以应对数据化社会的权力与治理挑战。
关键词:数据素养;算法素养;公民能力;社会—伦理素养;抵抗素养
数据素养的再激活
在这个数据密集型的世界里,具备“数据素养” (data literacy)非常重要。关于数据素养的定义与结构,学界已有较成熟的研究成果。Wolff 等(2016) 将数据素养定义为“通过探究过程,利用大规模或小规模数据集,识别和回答现实世界问题的能力,同时考虑数据的伦理使用”。这一定义强调对数据收集、清洗、分析、可视化、解读与运用的综合能力。最近,一项面向高校和研究机构构建的数据素养能力模型,将数据素养分为多个维度,包括建立数据文化、提供数据、管理数据、分析数据、评估数据、解释数据以及发布 / 交流数据(Echtenbruck et al,2025)。
然而,当数据成为复杂社会系统(包括平台、算法、AI 模型)的基础设施时,仅有数据读写能力显然不够。近年来,算法素养(algorithmic literacy)或人工智能素养(AI literacy)的研究开始兴起。国内研究指出,在数智时代,算法社会要求个人具备三维素养结构:知识层、思维层和态度层,以应对算法带来的社会风险(如偏见、歧视、数据隐私、决策不透明等〈夏苏迪等,2023〉)。国外有学者提出“批判性数据素养”(critical data literacy)的概念,认为其能够促进对数据实践的批判,将数据置于平台、网络基础设施和社会的背景中加以理解,并在统计和数学论证之外发现数据的意义(Acker et al,2024)。Kaplan & Meylani(2025)将人工智能素养定义为个体理解、使用、评估和反思人工智能系统的能力,不仅包括技术操作技能,还涵盖伦理、社会和认知维度。人工智能素养不仅是工具使用能力,更是公民在算法化环境中保持自主性与批判力的能力。
与此同时,有关算法决策正当性、公平性以及透明性的批判文献也不断增加。研究者指出,当算法用于重要人生决策(贷款审批、招聘、保险、司法再犯预测等)时,若不具备透明性与问责机制,个体将陷入被动(被评分、被分类、被预测)而难以申诉(Binns et al,2018)。对此,一些教育工作者和社会科学家主张,在数据 / 人工智能素养教育中应融入伦理、公正、隐私与治理等议题 (Louie et al,2023)。
本文认为,数据素养是指个体、组织或群体在多种情境中有效识别、获取、创建、理解、分析、评估、管理、使用与交流数据的综合能力。其核心并不仅仅是操作和处理数据的技术能力,更涉及认知、解释与行动能力乃至在数据的收集、分析与应用过程中所体现的伦理、责任与价值判断,是数字社会中的关键公民能力(critical civic competence)。
在这个定义当中的认知,指的是如何理解数据;解释,意味着如何从数据中生成意义;行动,就是要基于数据作出判断与决策。同时,数据素养还内嵌着一整套伦理与社会责任框架 , 包括对数据来源的敏感性、对算法偏差与结构性不平等的识别能力,以及对数据使用可能带来的社会后果的反思能力。换言之,数据素养不仅教人“如何用数据”,更教人“如何善用数据”,以及“在什么背景下限制自己使用数据”。
过去我们理解的数据素养概念是狭义的,多指个人在信息社会中对数据的获取、分析和运用,即“能读懂数据,会用数据”。这一框架源于 20 世纪末的企业信息化与信息社会研究范式,其核心关注的是个人的信息处理技能——如何搜集数据、如何运用统计工具、如何将数据转化为可操作的信息。比如,数据可视化曾经是数据素养的重要组成部分。随着可视化工具在传统媒体、社交媒体和技术报告中得到越来越广泛的应用,工作者不仅要正确地阅读它们,还要批判性地思考它们,并意识到它们可能会被滥用。所以,传统数据教育十分关注统计图表与信息可视化。
然而,这种以技能为中心的狭义理解隐含了两个重要前提:一是数据被视为稳定、客观且中性的资源;二是数据的使用情境主要局限于工作场景或教育场域中的理性决策任务。因此,它忽略了数据在平台化社会中的流动性、权力性与社会性,也无法充分回应算法治理时代中日益凸显的结构性风险。
当人工智能以算法推荐、生成模型和自动决策的形式深度介入社会生活时,这一数据素养的传统定义已显得过于狭隘。数据如今不仅是信息资源,更是算法训练的燃料、社会控制的媒介以及人机互动的基础结构,甚至是资本积累的新形式。
算法通过看似中立的逻辑,选择性地呈现世界,从而重构了人们的注意力与信任机制。人们往往相信“数据不会说谎”,却容易忽视数据选择与建模背后的社会偏见。为此,进入人工智能全面渗透的时代,数据素养这一概念需要被重新激活。当数据已然从一种资源转化为一种影响社会结构、认知方式与权力关系的新型基础设施之时,数据素养的内涵必须相应扩展,涵盖对数据生成逻辑、模型推理机制、算法偏差来源以及数据化世界背后权力运作的洞察。
算法素养:理解算法的权力运作
在人工智能时代,数据素养已经不仅仅是理解和分析数据那么简单,必须包括算法素养。算法素养不仅要求了解算法的技术原理,更重要的是提出一系列关键性问题:数据从哪里来?算法以谁的利益为优化目标?数据处理过程隐去了哪些声音?这样的素养不再是统计意义上的“读图能力”,而是一种理解算法权力运作的社会能力。
我们可以从三个层面界定算法素养。
(一)基础层面,即认识算法的逻辑与机制
这是算法素养的“读写能力”部分。它包括:理解算法是如何处理数据、作出决策(如推荐系统、排序算法、机器学习模型等);了解算法并非中立,它反映了设计者的假设与目标;具备基本的数据意识,知道算法需要什么样的数据、数据偏差如何影响输出。
例如,当你刷抖音或 YouTube 时,知道所谓“为你”(即推荐给你)的视频是由算法根据你的浏览行为预测兴趣得来的,而并非“客观的”热门结果。用户若理解这一机制,就能意识到自己的观看习惯如何被算法引导。
(二)批判层面,即察觉算法的社会与伦理影响
这是算法素养的“批判思维”部分。它要求人们能思考以下问题:算法如何影响公共舆论、隐私、劳动与民主?谁在控制算法?算法是否加剧了不平等?我们是否有权知道算法如何对我们进行分类、预测和判断?
例如,明白算法可能决定你看到什么新闻、获得什么贷款,甚至是否被录取或录用。算法素养意味着有能力质疑这些决策的正当性。这体现了算法素养从基础认知向批判性理解的延伸,使个体在高度数据化和自动化的社会环境中保持主动性与判断力。
(三)行动层面,即参与重构算法世界
这是算法素养的“公民实践”部分。它包括:能主动选择或调整算法的使用方式(如隐私设置、算法推荐的反馈);能参与公共讨论与政策制定,推动算法透明与问责;对有技术背景者来说,则意味着具备设计负责任算法的伦理意识。
具体来说,在参与决策与反馈机制方面,个体应能够利用平台提供的反馈工具(如举报、评价、推荐调整等)对算法行为提出意见,从而影响算法输出。例如,对不准确的内容、偏颇的推荐或歧视性排序提出纠正或投诉。在推动透明化与问责方面,用户可以积极关注算法透明度、数据收集和使用规范,参与相关政策或公共讨论,督促平台对算法决策负责。在设计与创造替代性系统方面,个体或群体可以参与开发或使用开放、可控、去中心化的算法系统,倡导算法影响评估(algorithmic impact assessment,AIA) 与 可 解 释 性 设 计(explainable AI),或是参与社区项目以探索不同导向的数据处理方式,促进算法的多样化与公平性。
算法素养的最终目标不是让每个人都成为程序员,而是让公民能够在算法社会中自觉、批判、负责任地生活与行动。它的根本宗旨是让人类在被算法包围的时代,仍然能够理解、批判并共同塑造技术命运。
数据素养必须扩展为一种“社会—伦理素养”
除了从阅读数据到理解算法的变化,还有从个体能力到社会责任的扩展。如上所述,数据素养曾长期被定义为个人技能问题,单纯指向技能的累积,而未充分考虑数据在决策、公共治理和社会认知中的更广泛影响。人工智能带来的权力集中,使这一假设被迫修正。数据的收集、分析与运用往往掌握在大型科技公司与国家机构手中,普通公民即使具备高水平的数据技能,也可能在制度上无从选择或拒绝。
在人工智能时代,数据素养的核心问题已超越传统意义上的“我们理解数据的能力”,而转向“我们被数据所塑造的程度”,即关注人类在算法与数据驱动环境中所处的位置与被动性。
在算法化的社会结构中,个人的选择、消费、信用乃至情感均被系统性地数据化、评估与分类,这意味着数据不仅是信息,更是一种社会控制与权力的体现。因此,数据素养必须扩展为一种“社会— 伦理素养”,即理解数据治理的权力关系、参与数据政策讨论、质疑算法不公的能力。
数据素养的伦理维度,涵盖对隐私权、数据主权、透明度、公平性与问责机制的敏感性与判断力;而治理维度则涉及对监管体系、平台政策、数据公共性、社会技术系统中的责任分配问题的参与和监督。
具体来说,扩充了的“社会—伦理素养”包括以下要素。
(一)隐私意识与数据权利
隐私意识指个体对自身个人信息及其使用方式的敏感度和认知水平,包括对信息被收集、存储、处理与共享可能带来的风险的理解,以及在数字环境中采取主动防护行为的能力。例如,了解个人在社交媒体上分享的位置、照片或浏览记录可能被用于广告定向、信用评估或行为预测,就能够合理设置社交媒体隐私选项,或使用加密工具,从而减少个人数据泄露的风险。
数据权利是法律框架赋予个人的对自身数据的控制权与决策权。这包括知情权(了解数据如何被收集与使用)、访问权(获取自己的数据副本)、更正权(纠正不准确的数据)、删除权(要求删除个人数据)、限制处理权以及数据可携带权等。在欧盟《通用数据保护条例》(General Data Protection Regulation)以及中国《个人信息保护法》等法律中,这些权利都被明确规定,以保障个人在数据驱动社会中的自主性与尊严。
在人工智能高度渗透的社会中,隐私意识与数据权利的重要性被进一步放大。AI 系统依赖大规模数据训练,从个人行为、偏好、社交互动到生理指标和地理位置,几乎所有日常活动都可能被收集、分析与预测。在这种环境下,隐私意识不仅涉及对个人数据被采集与使用的认知,还包括理解数据在算法决策中可能带来的偏见、歧视或操控风险。
与此同时,数据权利在人工智能社会中呈现出新的维度。除了传统的数据访问、删除、纠正权利,个体还需要关注算法透明度、可解释性以及数据驱动决策的可申诉性。例如,信用评分、招聘筛选、医疗诊断或公共资源分配等,都可能通过算法作出影响个人生活的重要决策,理解并行使相关权利成为保障公民自主性和社会公正的关键。
因此,在人工智能社会中,隐私意识与数据权利不再仅是个人防护能力的体现,更是一种“社会—伦理素养”——它要求个体具备批判性思维、制度理解能力以及参与数据治理的能力,从而在数据密集与算法驱动的环境中保护自身权益,同时对公共政策和技术实践产生有效影响。
在信息社会中,隐私意识与数据权利的结合不仅提升了个体对数字环境的自我保护能力,也为公众参与数据治理、质疑算法不公和塑造公正的数据政策提供了必要的前提条件,从而将数据素养从技术技能扩展为包含社会—伦理维度的综合能力。
(二)公平、透明、责任等算法治理原则
在人工智能成为社会运行基础设施的时代,算法治理的关键挑战在于如何确保技术系统不仅高效,而且符合公共利益与社会价值。在这一过程中,“公平” (fairness)、“透明”(transparency)与“责任”(accountability)构成了国际政策框架与学术研究中普遍认可的三大核心治理原则,它们共同指向对算法权力的规范化、民主化与可问责化。
首先,公平原则强调算法不应再生产或加剧既有社会不平等。算法模型依赖于历史数据,而历史数据本身常常带有偏见,如性别、种族、年龄、社会经济地位等结构性差异。在自动招聘系统、信用评分、治安预测和医疗分诊等场景中,这些偏差不仅可能被复制,还可能被放大,从而对弱势群体造成系统性伤害。因此,公平原则要求在模型开发、训练数据构建、变量选择与输出评估等全过程中引入偏差检测、差异化影响分析和公平性指标的审查机制。公平不是单纯的技术属性,而是一项关系到资源分配与社会正义的制度性要求。
其次,透明原则要求算法的逻辑、数据来源和决策过程对公众具有可理解性与可解释性。随着深度学习等复杂模型的广泛采用,算法决策呈现“黑箱化”倾向,使得公民难以判断决策是否合理、是否存在歧视,也难以对其提出异议。透明原则不仅包括“技术透明”(如可解释性模型、模型可视化、可追溯数据流程),也包括“程序透明”(如监管要求、平台规则公开、审计机制可见)与“语境透明”(即向受影响者清晰说明算法使用目的与潜在影响)。透明的核心是让技术权力变得可理解、可检视,而非隐匿于专业术语与专有技术之中。
最后,责任原则强调算法的后果必须由人类主体承担,而不能将责任归咎于技术本身。算法失误、偏差或滥用所造成的社会损害,需要明确的问责链条,包括数据提供者、模型开发者、平台运营者与监管机构。在这一层面上,责任原则体现在三个方向:(1)可审计性——算法系统应具备外部独立审查的可能性;(2)可争议性——受影响者有权对算法决策提出质疑与救济;(3)可追责性——明确技术行为的责任主体,防止“无人负责”的治理真空。
责任原则的本质是把算法重新嵌回社会制度,使其运行结果能够被解释、被质疑,并在必要时被纠正。
综合而言,公平、透明与责任构成了算法治理的三位一体逻辑:公平确保算法不伤害社会弱势群体,透明确保算法权力可理解且可质询,责任确保算法系统的后果有人承担并可纠偏。它们不仅是技术规范,更是数字时代民主治理的基础性条件。
(三)对数据集中化、平台权力等结构性问题的敏感性
在人工智能驱动的数字社会中,数据素养的一个关键维度,是对数据集中化与平台权力这一结构性问题的敏感性。这种敏感性指向一种超越技术层面的理解:个体不仅需要知道“数据如何被使用”,更要意识到“谁在使用数据、为何能使用数据、使用数据的权力如何影响社会秩序”。
首先,数据集中化是当代平台资本主义最核心的特征之一。大型科技平台通过掌握海量用户数据,形成了高度不对称的知识与权力优势。它们不仅能够预测、影响甚至引导用户行为,还能借由规模优势排挤竞争者、重塑产业生态。对这一结构性权力的认识,是理解算法社会运行机制的前提。
其次,平台权力并非仅体现为技术或市场优势,而是通过“算法治理”渗透到社会生活的各个层面。推荐算法决定哪些信息获得可见性;内容审核系统塑造公共舆论的边界;评分机制与平台影响劳动者、消费者乃至公民的社会机会。这意味着数据素养必须包含对平台如何行使治理权、如何形成事实上的“准公共权力”的分析。
因此,数据素养的结构性敏感度不仅是认知能力,也是公民意识的一部分。它要求个体能够识别平台结构背后的利益逻辑,理解数据垄断的风险(如隐私侵蚀、算法偏见、舆论操控、市场失衡),并具备参与公共讨论、推动数据治理改革的能力。在这一意义上,数据素养已经从单纯的个人技能扩展为理解数字时代权力关系的关键社会能力。
(四)对 AI 参与公共决策的民主性、正当性提出质询
随着人工智能逐步进入公共治理领域,从社会福利分配、医疗资源配置到治安预测、行政审批流程, AI 正在以“效率”“客观”“精确”为名重构公共决策的逻辑。在此背景下,数据素养的伦理与治理维度必须包括对 AI 参与公共决策的民主性与正当性提出系统性质询。这种质询不仅针对技术结果,更指向背后的权力结构、价值选择与社会后果。
首先,AI 决策缺乏民主程序的参与性。传统民主制度要求公共决策具备透明审议、利益表达与公民监督等机制,而算法系统的内部逻辑往往封闭在企业的技术黑箱中。算法模型如何训练、用哪些数据、隐含何种偏好与价值判断,常常无法被公众知晓或质询。在这种条件下,将 AI 结果视为“技术性事实”而非“政治性选择”,不仅遮蔽了价值冲突,也削弱了民主问责。
其次,AI 决策的正当性面临根本性挑战。公共决策的合法性源于程序正义与社会契约,但算法系统并不具备负责和承担义务的主体性,也不具有道德判断能力。当涉及弱势群体的福利审批、治安执法或教育资源分配等问题时,单纯依赖算法可能导致“数据化歧视”。因此,正当性不仅要求结果准确,还要求决策过程具有公正性、可解释性和可问责性。
再次,AI 参与治理可能改变民主权力的边界。一旦公共决策过度依赖算法,技术专家、平台企业与数据拥有者将掌握过大的实际影响力,使公共领域呈现出“技术官僚化”倾向。民主政治的核心原则是集体自我治理,而不是技术替代政治;因此,在 AI 时代,“谁制定规则、谁掌握数据、谁解释算法”成为新的政治议题。对这一结构性问题的质询,正是数据素养作为公民能力的体现。
综上,对 AI 参与公共决策的民主性与正当性的检视,不是反科技,而是确保技术发展与民主价值的兼容,防止算法成为规避公共审议、削弱公民权利的新工具。在人工智能深入社会制度的时代,能够从制度、伦理与权力结构层面对 AI 决策提出质询,已成为数据素养不可或缺的组成部分。
新的数据教育:打破“智能化的愚昧”
这种从个体能力到社会责任的扩展意味着数据素养的教育目标也需要改变:不再仅是“让学生能用 Python 处理数据”,而是培养能够理解数据背后的社会后果的公民。
换言之,关键不再仅是个体读取、分析和利用数据有多好,而在于我们在多层次的社会技术系统中被数据和算法塑造、引导甚至决定行为和认知的程度有多深。这一转向提示学界与教育者,需要从技能培养扩展至批判性认知、算法理解以及对技术嵌入社会结构的反思能力,以确保人在高度自动化和智能化的环境中仍然保持自主性与判断力。
在新的数据素养教育当中,必须致力于打破技术中立的幻觉。如笔者所言,当前的数据教育往往停留在“技能培训”层面,例如学习编程语言、统计模型或机器学习方法。这种培训固然重要,但它维持着一种危险的幻觉——即技术是中立的,只要学会使用,就能掌握未来。
然而 AI 系统的每一个决策——从人脸识别到信用评估——都内含价值判断。正如凯西·奥尼尔(Cathy O’Neil)在《数学杀伤性武器》(Weapons of Math Destruction,2016)中揭示的,算法的偏差可能在无形中放大社会不平等,而受害者往往无法察觉。因此,真正的数据素养教育应当跨越理科与人文的边界,将统计知识与伦理反思、社会批判结合起来。它既要让学生理解模型与代码,也要引导他们思考:当数据被用来“预测人生”或“自动判断价值”时,我们是否还拥有被理解的权利?
数据素养教育的目标之一就是让学习者认识算法的非中立性,即理解算法并非客观、中性的技术工具,而是嵌入了设计者的价值观、目标假设和社会偏见。算法在设计时必须对数据进行筛选、特征提取和权重分配,这一过程中涉及设计者的选择与假设。例如,算法可能会因历史数据偏差而倾向某类人。数据集本身可能存在历史歧视、采样不足或文化偏差,这会直接影响算法输出结果。个体需要意识到算法推荐、排序或预测的结果并非绝对公正,而是深受数据源质量的制约。同时,算法体现了特定的效率、盈利或行为引导目标,而这些目标可能与公共利益、社会公平或伦理价值不一致。例如,短视频推荐算法优先推送“吸睛内容”,可能导致用户认知浅化或情绪偏激。从这些方面来看,算法素养要求个体能够质疑算法输出的正当性,理解其决策逻辑背后的价值偏向,从而在使用算法时保持警觉,并能够在必要时采取行动。
值得注意的是,人工智能不仅改变了数据的结构,也改变了数据素养本身的学习方式。当前各类智能学习平台和 AI 助教(如 ChatGPT、Copilot)使数据分析技能的门槛大幅度降低。然而,这种便利也带来新的问题:一方面,人工智能确实使更多人能“快速上手”数据科学工具;另一方面,人工智能削弱了人对算法细节的理解,使学习过程从“理解原理”变成“调用结果”。换句话说,人工智能在提升表层素养的同时,可能正在侵蚀深层素养。
这种趋势会导致一种“自动化的愚昧”,或者用矛盾修饰法来说,是一种“智能化的愚昧”——人们使用人工智能解决问题,在对其背后的机制毫无认知的情况下,形成对人工智能的过度依赖,从而失去批判与创造的能力。人工智能时代的数据素养,必须在“使用 AI”与“理解 AI”之间保持张力。
这种素养可以分解为:技术性素养——读懂数据、理解算法、掌握基本分析工具;批判性素养——能识别数据偏见、算法风险、黑箱与权力机制;伦理性素养——关心隐私、AI 治理、公平性与透明性;实践性素养——能在生活 / 工作 / 学术中灵活应用AI 数据工具并保持反思能力。
技术性素养是数据素养的基础层面,涉及读懂数据、理解算法运作原理以及掌握基础分析工具(如 Python、SQL、可视化软件、机器学习与建模工具、自然语言处理工具等)。在这一层面,个体能够识别算法如何处理数据、作出决策,并理解模型训练所依赖的数据类型及可能存在的偏差。例如,推荐系统、排序算法与机器学习模型在新闻分发、信用评分或招聘流程中可能对个人生活产生直接影响,具备技术性素养意味着个体可以理解这些系统的逻辑,从而在技术层面进行互动与反思。
仅有技术能力仍不足以应对复杂的算法化社会,因此批判性素养成为第二层面的核心。它包括识别数据偏见、算法黑箱性以及平台权力结构的能力。批判性素养使个体能够审视算法如何在社会中产生不平等影响,例如金融信用评估可能因历史数据偏差而歧视特定群体,或社交媒体推荐算法可能强化认知偏差和信息茧房。通过批判性分析,数据使用者不仅能理解算法输出,也能质疑其正当性及潜在风险。
数据素养的第三层面是伦理性素养,它要求个体理解数据治理中的权力关系,关注隐私保护、算法透明、公平性与问责机制。在人工智能广泛介入公共决策、社交行为与消费选择的社会中,伦理性素养促使个体能够提出关于算法决策的民主性与正当性质询,从而将数据素养与社会责任联系起来。例如,用户在使用 AI 医疗、教育或招聘系统时,应具备识别潜在不公正结果的能力,并参与相关讨论或政策倡议。
最后,实践性素养强调将数据与 AI 能力应用于日常生活、职业实践及学术研究,同时保持反思性理解。它不仅包括熟练操作数据工具,还涉及对使用数据和算法行为的社会后果保持警觉。实践性素养使个体能够在信息复杂、算法主导的环境中作出知情决策,并推动更为负责任的技术应用。
技术性、批判性、伦理性与实践性四种素养构成了人工智能时代数据素养的核心框架。这种综合素养不仅使个体能够有效使用数据和算法工具,更确保其在算法化社会中保持判断力、主动性与伦理责任感。因此,教育目标应从单纯的技术训练转向培养能够理解数据背后社会后果并积极参与算法治理与公共讨论的公民。
结语:真正的数据素养,是一种抵抗的素养
总之,在这个“数据即语言,算法即权力”的时代,数据素养已不仅是专业能力,更是一种公民素养,一种关于权力、伦理与人性的素养。提升数据素养不仅是职业发展的需要,更关乎信息判断力、社会责任感与自我认知能力的建立。
从根本上说,人工智能时代真正的数据素养,是一种抵抗的素养——抵抗被算法塑形的命运,抵抗把人简化为数据点的冲动,抵抗那种以“智能” 为名消解人性的理性主义。它召唤我们以批判的眼光重新学习,以理解取代盲信,以共情取代计算。它推动我们更加关注权力关系,以及沿着更公平、更有教育意义的路径重新想象人工智能。
只有这样,数据科学才能回到它最初的使命:帮助人类理解世界,而非被世界所取代。
引用格式参考:
①胡 泳:《人工智能时代的数据素养:重构公民能力与抵抗性素养》,《教育传媒研究》2026年第2期。
②胡 泳.人工智能时代的数据素养:重构公民能力与抵抗性素养[J].教育传媒研究,2026(02):05-10.