李伦 刘梦迪:超越“反向适应”:对待算法的一种伦理态度

选择字号:   本文共阅读 2211 次 更新时间:2025-07-03 23:02

进入专题: 算法伦理问题   反向适应   和谐共鸣  

李伦   刘梦迪  

摘要:算法技术的普遍化正在改变和重构生活世界。算法功能的个性化和便捷性日益增强,可以为人类行动提供具体的建议和指导,但也带来了人类“反向适应”的问题。对算法伦理问题的进一步追问发现:算法技术不断遮蔽人类的原初意愿和选择,抑制人类文化创新活力,影响社会协调发展。随着这种现象的不断加剧,人类沉浸在碎片化的现实中,逐渐形成一种不自知的“反向适应”,从而遗忘了人本该怎样的事情。人类主动接受算法技术对其加以改造和支配,迎合算法文化的生成,最终却不可避免地陷入人与人之间无法联结的社群性困境。基于此,我们倡导这样一种对待算法的伦理态度,即为了保障人的本质存在,应审思和超越“反向适应”,聚焦和谐共鸣的美好生活。

关键词:算法伦理问题; 反向适应; 和谐共鸣; 伦理态度

本文发表于《华东师范大学学报(哲学社会科学版)》2025年第1期  #重启科技与人文对话  栏目

人的生存与发展、人存在的本质一直都是哲学家们探寻的基本伦理问题。人是一种具有历史性的存在,在不同的时代背景下关于这些问题的追问,往往不可避免地受到不同时代主题的影响。当前,算法技术的广泛使用已经突破了过去的边界,进入了更深层次的决策层,给人们的生产生活、思维方式和生存观念带来了变革性的影响。然而,算法本身的特性、参与主体的道德素养参差不齐和相关法律法规的滞后,导致了一系列算法伦理问题的出现,如算法伦理的维度走向、算法在应用过程中的归责和算法自身的不透明性等问题。研究者们针对上述问题进行了深入的分析与探讨,他们的研究主要基于算法伦理的理论界定与区分,展开针对特定问题经验层面的分析与批判,然而这可能遮蔽了另一层值得深入思考的伦理问题,即算法技术是否真的让我们的生活世界变得更美好?本文将带着这一疑问,从技术政治学的视角出发,探讨算法嵌入生活世界的最初表征,并进一步揭示其中的深层逻辑——人类的“反向适应”,最终提出我们应采取和谐共鸣的伦理态度来对待未来的算法技术。我们只有站在共同体的形态上,才能实现纯粹性的关怀,只有避免侥幸的“人类例外主义”心理,才有望揭示出算法技术的隐秘本质。

一  算法伦理问题的追问:嵌入生活世界的初始表象

如果想要全面了解算法伦理问题,就需要考虑算法在实际操作中,即与各项智能技术的结合过程中,对包括人类在内的多主体带来的影响。关于算法伦理问题的研究主要集中在以下两个方面。其一,算法本身所体现的伦理功能,例如算法是否内嵌了价值判断。费利西塔斯· 克雷默(Felicitas Kraemer)等人认为算法本身是有价值负载的,但是对具有不同价值观的人而言,算法具有不同的价值判断。例如,在医学图像的案例中,判断细胞生病与否就和阈值有关,而阈值的选择在一定程度上取决于设计师的偏好。当然,算法在应用过程中是具有价值负载的,对其依赖性和可靠性的要求越高,衡量其价值判断的标准就越严格。其二,当算法在与其他技术的结合过程中涉及人类等道德主体时,会引发一系列伦理问题。其中,算法的自主性、公平性与透明性引发了几个关键问题:算法是否会导致社会不公平现象的产生?是否会侵犯个人隐私?是否最终会消解人类的生存价值?算法所带来的问题还可能进一步引发社会秩序的混乱。

根据布伦特·米特尔施泰特(Brent Mittelstadt)等学者的见解,算法伦理问题的探讨应当聚焦于那些人类事先难以预测其行为或事后难以阐释其决策逻辑的算法。基于此,他们构建了一个关于未来算法伦理学的讨论框架,该框架围绕三个认知维度——不确定性、不可理解性、误导性,以及两个规范维度——不公正性和变革性进行深入分析。此外,可追溯性构成了算法伦理问题的核心关注点,因为当算法引发的行为产生不良后果时,可能牵涉到众多责任主体,从而使得归责问题变得复杂,进而将可追溯性推向了至关重要的地位。这一分析路径试图为算法伦理的未来研究提供一种共同的框架性思考。它并非旨在解决由算法驱动行为引发的道德难题,而是更注重从算法技术的角度审视伦理问题,因为这些问题都建立在数据证明的基础之上。实际上,这个方案并不会为人类在面对算法引发的道德困境时提供具体的指导,但却针对算法伦理问题的研究进行了基本的梳理,使得本文关于算法伦理问题的研究有着更加明确的方向。

如前所述,关于算法伦理问题的讨论大多集中在问题的划分和概括,以及经验层面的具体现实伦理问题上。本文旨在从纯粹的理性层面入手,结合人类伦理准则和社会法则,揭示算法伦理问题与人类更深层次的联系,期望算法技术的发展能够在真正意义上促进人类生活趋向美好。

算法一方面在为人们进行信息的筛选和过滤,协助人类找到自己的兴趣,另一方面,它也在遮蔽个体的兴趣、选择和主体思维,最终导致人类被推向自由与意义缺失的生活世界边缘,直至人类生活世界成为算法的殖民地。生活世界殖民化的概念是哈贝马斯(Jürgen Habermas)在形容现代社会病态时所提出的。“生活世界”事实上是一个屡经改造和拓展的概念,被人们广泛地理解为一种批判地审视人类理论活动和实践活动的视域,它区别于具体的生存空间,仅仅作为一种视域性的存在。我们不妨将算法伦理问题放在这一视域中来考察,从算法的个性化推荐、不透明性和公平性等几个典型特性出发,追问算法技术给人类自身、文化和社会带来的更隐秘、更本质的影响。

第一,算法推荐遮蔽个体兴趣和选择。在信息技术和互联网技术的助推下,人类从信息匮乏到信息过载,再到信息焦虑,最终走向了信息检索、过滤和个性化推荐的时代。随着智能化的普及,个性化推荐算法技术已逐步渗透于人类的生活世界。事实上,很多技术的出现一开始都源于人类的需求。以调整电冰箱尺寸为例,制造商在设计时会考虑到住宅与超市的距离远近以及家庭成员数量的多寡。再例如,Facebook在其关于热门话题的实时推送上,采用了一套基于用户个人喜好的算法推荐系统。该系统根据算法的运作统计预测出哪些主题会显现峰值,从而判断与这些话题相关的事件会更具有吸引力,如娱乐新闻往往比政治新闻更能占据热门话题。算法背后的资本势力往往能够操纵算法推荐的导向。在这个过程中,算法看似为人类解决了“信息焦虑”和“信息过载”问题,让用户更容易找到自己感兴趣的内容和产品,但这种“满足”人们兴趣爱好的算法推荐也体现了一种“欺骗”导向。算法偏见和算法的聚集性推荐所带来的困扰使我们不禁反问:不断迎合用户的偏好就真的符合人类的意愿和选择吗?

第二,算法的不透明性和黑箱性导致人类自身和文化的边缘化。在特定算法决策过程中,算法会衍生出自己的决策方法,如深度学习算法和卷积神经网络的“决策”过程在一定程度上就脱离了人类的控制。由此,算法透明性问题不可避免地浮现:人类对于算法如何处理未知信息的规则尚不明确,即便是运营商和开发人员也对此束手无策。尽管人类也参与了算法文化建构和输入的过程,但随着技术的进一步发展,人工智能深度学习的算法正在形成自身的发展逻辑,它们所带来的“黑箱世界”和可解释性困难问题已经逐渐将人类边缘化,人类文化和人类自身或许最终将处于弱势地位。此外,如泰德·斯特瑞佛斯(Ted Striphas)所担忧的,“算法文化面临的风险是逐渐放弃文化的公共性,导致一种新型精英文化(elite culture)的出现”。具体而言,由于算法本身的复杂性以及所依托的数据来源、规模和质量参差不齐,算法会变得难以被常人理解,只有少数专家能够掌握和解读算法,但是算法却对大多数人的日常生活决策、工作方式、社交活动乃至疾病治疗方法产生了深远的影响。换句话说,算法的不透明性特征可能导致一种现象产生,即算法技术由少数掌握相关技术的专业人士所控制,多数人不仅无法参与其中,还要受其“辐射性”的影响。久而久之,算法可能会利用与人类交融的部分形成自身的文化发展逻辑,产生出比人类更强大的文化创造能力,甚至会迫使人类按照它们特定的文化方式行动。

第三,算法权力统治人类生活世界。算法与人类社会的深度交融将算法的不公平性等一系列特性充分展现出来。算法利用自己的内在价值和文化方式主导着人类的生存价值,最终将人类阶层化、等级化和种类化。我们观察到,机器学习算法能够辨识大数据中的相关性与运作模式,并以此为基础执行决策预测,从而实现决策过程的自动化。无可否认,算法正在塑造一种新型数字权力的底层逻辑。“‘技术的逻辑’有时可能背离人们的初衷,偏离预设的轨道,挣脱人们的控制,导致公开的或隐蔽的反主体性效应。一种技术的应用范围愈是广泛,愈在社会系统中具有基础性地位,其‘自主性逻辑’往往愈是强大、‘任性’,产生的反主体性效应往往愈深沉、强烈。”也就是说,这种反主体性效应正在人们的视野下不动声色地发展着自己的行为逻辑,入侵人类的社会关系。这一特性一旦没有被规范使用,将会为社会稳定埋下隐患。例如算法可以影响选举结果,底层算法平台的控制者为了满足自身利益可能有意识或无意识地操纵算法,形成“数字不公正划分”的现象。此外,新闻业和第四产业的作用也受到了算法逻辑的影响,其生产的内容不再为民主服务。换句话说,算法正在通过一种隐性的方式整合公共领域的各种信息,进而支配人类的社会关系,控制人类的生活世界。

在追问算法伦理问题时,算法技术在问题或现象的呈现过程中所扮演的角色被聚焦和放大。随着算法与人类生活世界深度交融,人类自身的心理状态、行为标准和社会价值的变化显得尤为根本。无论是从现象层面还是从本质层面关注算法伦理问题,都为人类技术化生存的困境提供了另一种反思方式。只不过前者主要致力于揭示和分析现象,而后者则更专注于在算法技术引发伦理问题的过程中,人类需求、文化创造力以及社会观念所经历的从形式到实质的转变。

二 算法伦理问题的深层逻辑:人类的“反向适应”

兰登·温纳(Langdon Winner)将现实中的技术实践模式表达为“人的目标的调整,以配合可资利用的技术的特点”,这也蕴含了他提出的人类的“反向适应”的过程。与只考虑技术给人类带来影响的单向过程的传统观念相比,“反向适应”的概念更加强调技术实践过程中目的和手段两者之间关系的颠倒,也更加关注人类自身的状态调整和发展变化。换言之,随着大规模技术系统对公众社会产生影响,以及新科技产品的不断涌现,人类的需求也会迎合技术突破而发生改变。与此同时,技术系统与社会整体的联系为人类的反向适应增添了力量。在人类不断反向适应的过程中,算法技术的自我产生、自我延续和自我实现得到了最直接的展现,人类使用算法技术的最初目的也随之改变,“引入技术手段所产生的一系列转化最终导致了目的的转化”。

算法作为一种“编辑器”承担着“看门人”的角色,它按照人类的偏好和浏览点击行为将信息进行过滤、筛选、分类和排序,最终呈现出人类需要的并可能愿意看到的内容。人们获取信息的速度越来越快,不但来不及进行深刻的反思,反而一步步适应算法的快节奏,一旦离开算法更是会变得进退失据。人类为了更加准确地满足需求,就需要不断地适应算法技术的生成逻辑。一方面,技术开始不按照人类的道德理想、生存价值和社会观念运行,各种风俗、习惯、观念、社会和政治制度都被纳入技术变革的洪流,它们被迫改变或呈现新的功能,没有任何事物能够置身事外。另一方面,面对整个社会的数据化、算法化和智能化,人类要想存续下去,除了适应似乎别无选择。

从人类的主体选择和个性兴趣上来看,基于用户的协同过滤算法和基于内容的算法推荐模式针对用户的特征提供专属信息,这让人类处于算法量身定做的“信息茧房”里,忽视了“兴趣”以外的世界。当社会中的个体和集体所关注的事情被算法背后的力量操控时,正向的、符合人类核心价值观的社会统一价值就再难形成。最终,当人类愈加沉迷于算法的个性化服务时,就会从算法遮蔽现象变成人类的“反向适应”,算法不但改变了人类的需求和选择,也进而剥夺了人类做选择的能力和权利。在古希腊哲学家亚里士多德看来,意愿和选择在一个人的实现活动和德性的获得过程中具有至关重要的地位。如果人类持续深度依赖算法而不自知,任由算法建构自己的意愿和选择,就会形成稳定的算法行为倾向,直接影响人类的实现活动。算法通过一种隐性的方式悄无声息地建构着社会规范、交往方式和生存价值,人类一旦偏离这些体验就会无所适从。算法开始无处不在、无孔不入地将触角伸入到生活世界的每一项实现活动。

为了跟上算法时代的脚步,在技术社会中有效地生存下去,人类“必须”要做的是迎合算法文化的生成,积极参与到算法的“自我实现过程”中。人类文化可以主动地被算法所认识并“深度学习”,但人类却难以参与到算法的“自我实现”过程中。算法文化行为方式的出现,看似为人类带来了新文明,却也在一定程度上将人类抛掷一边。算法超越人类成为文化创造的主体,伴随着算法推荐等功能的广泛运用,潜移默化地将人类文化占为自己的营地。譬如,亚马逊作为一个在文化传播领域占据突出地位的书籍类出版商,利用算法系统掌握我们阅读电子书时留下的记录,分析我们的阅读习惯等信息,在进行推送和宣传的过程中发挥算法对数字信息整合的作用。这种情况下形成的文化曝光,在一定程度上已不再是我们自己决定和判断的结果,而是对大量数字信息进行有效过滤和排序的结果,在某种程度上忽视了人类最本质的文化渴望。如果仅依据算法的构建原理来展示文化内容,在反馈循环(feedback loop)中,我们对特定类型内容的接触频率会增加,产生自我强化的现象。这是以牺牲其他内容为代价的,会减少我们与其他内容的关联度,降低人类文化选择的多样性。长此以往,人类不但无法使用算法自我实现,而且将丧失认识世界的动力,对真理的渴望不再炙热。人类反向适应着“机器真理”,而“机器真理”所带来的负面影响最终还是要由人类承担。人类对意义、价值和道德的理解逐渐淡化,难以通过因果关系进行真理的合理性的评判,这种评判将被相关性所取代。人类文化的创造反而还要建立在算法文化的基础上,以便于更好适应算法文化的发展。

从社会角度来看,人们若过度或长期地适应算法技术的演进,可能会导致被技术及其背后的资本力量所左右。就像杰米·萨斯坎德(Jamie Susskind)所说的那样,“在数字生活的世界里,拥有东西的人将比做事情的人更快致富”。需要注意的是,算法的力量正逐渐渗透至我们的日常生活,包括医疗、交通以及隐私安全等各个方面,人类原本的生活世界被“去背景化”,算法成为最权威的“背景”,生活世界与物理世界的独特性、在场性和丰富性逐渐消失。在算法的权力之下,人类的行动和现实生活的体验都呈现出一种断裂式、孤立式的状态,人类从最初的无法寻找到“自我的根源”的个体化困境转向人与人之间无法实现联结的社群性困境。当人类自身及其文化习俗等关键因素在持续的逆向适应过程中受到算法的操控,而这些算法又为掌握其技术的人所控制时,这可能会更加严重地限制人类的自由,进一步侵入我们的私人空间,决定我们的政治体制,进而影响民主的未来发展。技术掌控者运用算法来判定社会公正的核心议题,分配社会资源,并将人们划分至不同的社会地位和荣誉等级。此外,当算法技术被资本力量介入之后,文化的分布和秩序开始受制于私人利益,这些利益会对公共知识施加影响,造成孤立和两极分化的世界。例如人们的互动开始变得由在线过程决定,经过一系列的反馈循环才能作出决策。在此过程中人类的知识和价值观经过不断的自我验证变得越来越封闭,难以与他人建立有意义的联系。人与人之间的在场交流将变得不再真实,语言和符号的媒介无法得到正向维系和再生产。这种合理化趋势,依赖于工具理性的不断扩张,最终将不可避免地导致工具理性与价值理性之间的二元对立。

综上所述,算法已经渗透到人类自身、文化发展和社会的许多方面,“人类世界在多大程度上成为理性技巧的产物,它就在多大程度上受制于这种统治模式”。人类的逐步“反向适应”正推动着算法将我们的生活世界重构化,进而重建人与技术之间的关系。如果对人类“反向适应”的困境不加以重视,放任技术理性、技术政治形态不断入侵人类生活世界,逐渐取代人与人之间的主体间性和交往理性,人类将不再占据生活世界的主导地位,并最终导致系统与生活世界之间出现一种不平衡的状态。

三  超越“反向适应”:走向和谐共鸣

自古以来,东西方哲学家都有涉及和谐共鸣的思想,中国古代哲学家孔子就倡导“和为贵”“和而不同”以及“求同存异”的理念。儒家伦理学的和谐思想在后续的发展中持续得到丰富与拓展,但是儒家主张的“和谐”并不是一味地强调达致和谐的目的,而是更重视在这一过程中的交流碰撞、协商共建和不断优化,这一点和哈贝马斯的商谈伦理以及哈特穆特·罗萨(Hartmut Rosa)主张的“共鸣”世界的观点异曲同工。共鸣关系是将共鸣的两者分为主体与世界,其中主体和世界用各自的方式来和对方进行呼应。在共鸣的过程中主体这一方有机会吸取世界的养分来为自己所用,并且也能够在这一过程中保持自己的底色。在人类与算法的关系类比中,人类是主体一方,算法是世界中的一部分。事实上,采用和谐共鸣的伦理态度去发展算法技术,与发展伦理的基本理念也有许多相通之处。“发展伦理倡导人类自由而全面的发展,反对无限制的技术增长和经济增长,但这并不意味着对技术发展的遏制,而是促使技术向善的方向发展,在技术发展与生态平衡、人类福祉相协调的机制下健康有序地发展,确保人类的可持续发展。”另外,和谐的欢乐社会被描述为一个人类潜力和社会潜力都可以发挥并蓬勃发展的社会:人们需要找到一种非传统的自我实现方式,社会将渴望一种支持和谐的新原则。只有这样,人的身心对生活世界的在场参与才能更好地将理论与经验、符号与现象、虚拟与现实结合起来,赋予现代人生活的秩序、尊严和意义。

构建人类与算法之间的和谐共鸣关系,不仅需要在设计和制造算法系统方面,让算法更符合人类的道德要求并具有一定的道德敏感性,更要从人类自身做起,科学地认识算法的价值,合理地利用算法为自身服务。

一方面,技术进步可以且应该以负责任和合乎道德的方式形成。在未来,这一原则将始终是算法技术发展进程中必须坚守的准则。事实上,当前算法治理领域的研究尚处于发展阶段,各国之间仍然缺乏能够被普遍接受的算法治理原则以及相关价值观和概念的共识。从衣食住行到身体健康和心理健康,算法被越来越多地应用到决策层面,这些决策对相关的主体产生了深刻的影响。例如,医疗诊断系统利用阈值选择出假阴性或假阳性结果,算法究竟是如何权衡这背后的“抉择”?搜索引擎的个性化推荐背后,算法是如何精准拿捏我们的意愿和兴趣选择?面对这些问题,越来越多的人开始倡导算法的可解释性、可信赖性以及算法决策者要对自己的行为活动负责,呼吁实行算法问责制来规制算法的良性发展,要从算法设计层面再到执行层面,增强算法的可解释性,不断优化算法,用法律监管算法。此外,在机器学习、算法伦理化以及人类意识提升的进程中,我们还应重视专家与社会的合作与协商,保持和谐、共鸣的伦理态度。这实际上是一种平衡专业知识、经验、工具、期望、成本和收益的和谐行为。正如马塞洛·达戈斯蒂诺(Marcello D’Agostino)等人强调,让研究人员、从业者、政策制定者和公民组成的多学科团队共同开发、部署和评估真实算法决策过程,是一项具有紧迫性的工作。从更高层面上来看,在多元治理主体共存的条件下,算法的治理不可避免地需要“合作治理”模式,因为这不是一个国家或地区的问题,而是关涉全人类的福祉。

另一方面,面对技术进步所引发的社会问题,需要我们思考如何恰当地运用技术与社会进行互动。也就是说,探讨人类的“反向适应”问题并不是去禁止或阻碍算法技术的发展,而是审慎思考应如何利用算法去参与文化创造活动、人类主体性活动以及社会实现活动,进而实现人类与算法的和谐共鸣。如此一来,人类也要做出一些改变。

和谐共鸣的算法伦理态度要求我们应该关注人类本真个性的丰富发展,积极应对“反向适应”。以大数据为依托的算法愈来愈广泛地被应用到人类社会的方方面面,逐渐侵蚀人们参与生活世界的原初热情。这不禁引人深思:看似人与技术交融过程一团和气,实际上人类的本真个性、文化创造力和社会互动能力正在逐渐丧失。正如哈贝马斯所担忧的那样,人与人之间的交往不再依托语言这样的媒介,而是被金钱和资本所操纵。在这样畸形的人与技术关系中,人的异化现象更加严重,人类的心灵世界不再明媚,从人类的身体、内心情感、道德意识再到审美判断和价值判断,都在人类参与算法构造世界的过程中变得虚无。为了保持人类自身的主体性,在参与算法相关的实现活动中,人类不但需要提升价值判断能力、自主而敏锐的选择能力,以及探索未知的求知欲,而且需要摆脱以金钱和权力为导向的工具理性,警惕“信息茧房”的存在,有意识地扩展自己的兴趣面和信息面。在与算法进行“交流”的过程中,人类还应培养自身的算法素养,一方面重视算法的基本知识和经验的学习,努力达到“算法识字”的状态;另一方面做到道德自律,养成一种勤于反思自我的美德和习性。

除此之外,持续的技术革新在算法领域正不断塑造着人类的生活模式,而人类生活必然与社会密不可分。技术哲学家安德鲁·芬博格(Andrew Feenberg)在讨论解释技术的问题时指出,如果人们忽视了技术与社会之间的大多数关系,那么技术以自我生成(self generating)的面貌呈现出来就在所难免。与此同时,自我生成的算法技术会过滤我们眼中的世界,我们所看到的只是算法推荐和建构的现实,而不是最初的目的世界。我们努力增强大脑和身体的能力去适应技术的发展,使得自己拥有一种稳定而广泛的能力去做“有意义”的事情,但是这些事情或许我们原本并不会去做。在一定程度上,算法系统对个人和文化习俗产生着潜移默化的作用,进而有能力直接影响立法、选举和法律制定等社会政治生活。长期以来,人类往往过于依赖自己的经验模式。事实上,人类已经无法完全“独自”生活,人的各种实现活动都必然置于技术世界之中。唯有当人类、自然与技术之间构建起一种和谐的“共鸣”联系,我们才能更有尊严地迈向美好生活的可持续发展之路。如果将人与技术都看作主体,那么技术所遵循的是工具理性和相关性原则,而人类遵循的是意义与价值原则。在算法与社会意义不断结合的现代实践中,算法所依托的设备和系统理应与人类生存的意义相融合、相协调。

在这个开明时代,应该允许理性对话存在的中间立场,积极推动人类与技术的良性交流。采用和谐共鸣的伦理态度面对算法技术,对于构建美好生活的世界、丰富人类的精神世界,以及对抗社会加速过程中出现的“异化”问题,都具有重要的意义。人类对自我的认同、个体与社会之间平衡等问题,都不应被算法等技术所遮蔽和割裂。对生活世界本质的意义追寻,很多情况下既有内在维度也有外在维度的考量。和谐共鸣的伦理态度,只有在人类先有意识和能力去察觉到自身变化时,才是一种富有成效的主张。不过,如果人类长期依赖算法等技术目的的指引,那么人类很可能面临着持续的不确定性和不可靠性。世界的秩序也不应完全是技术化的平衡结果,因为那样人类的思维方式、行为模式、风俗习惯和社会结构会不断适应技术秩序的要求。在人工智能算法快速发展的时代,改变生活世界的关键就在于人类与技术之间关系的平衡与协调。超越 “反向适应”意味着人类需要走出工具性标准占据优势地位的惯常范围,去平衡好效率、速度、准确性等工具性考量与人类内在意识、遵循自然等原生性动力之间的关系。依据这种伦理态度,算法的可解释性才具有实现的可能性。或许按照惯常的思维方式,关注技术发展的速度和效率才是最有价值的,但事实上技术应用过程中的意义丧失问题同样值得反思,并且对意义的重视可以转化为促进技术发展的能力,最终实现技术发展价值与意义的和谐共鸣。

四  结 论

当前,算法正给人类的思维方式、生存境况和周遭生活带来变革性影响,人类正沉浸于算法带来的便利性、快捷性和个性化的服务中。针对算法伦理的探讨,在关注算法伦理困境的产生及其解决策略等实证性议题的同时,我们亦需密切关注算法对人类生活世界所引发的深层伦理挑战,对此保持审慎的、理性的伦理态度。人们应当清醒地意识到,算法对我们产生的影响远不止于消费领域,它在整个社会发展和国家政治层面的深远影响同样不容忽视。我们应站在一个更为深远的角度,采取一种和谐共鸣的伦理态度去权衡和协调人类与算法之间的关系,丰富人类自身的意义,了解人类对于美好生活的真正诉求。鉴于此,面对算法技术的发展现状与未来趋势,我们提倡超越“反向适应”,走向和谐共鸣。算法及其带来的诸多益处不应被过分强调为终极目标,而应始终被视为丰富人类内心世界、外在环境和社会领域的工具。如此这般,算法对人类生活世界的意义才能像前技术时代那样,和人类产生共鸣,滋养出更多符合公共价值诉求的算法服务。

    进入专题: 算法伦理问题   反向适应   和谐共鸣  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/164595.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统