责任伦理:教育人工智能风险治理的时代诉求

时间:2023-08-19 19:10:03 来源:网友投稿

赵磊磊 吴小凡 赵可云

[摘   要] 教育人工智能风险治理已成为影响人工智能与教育教学深度融合的关键因素。文章以责任伦理为视角,提出教育人工智能风险治理的责任伦理框架,其涉及角色责任、契约责任、前瞻责任、关护责任四个维度。指出教育人工智能风险治理的责任伦理困境主要表现在教育主体功能遭遇技术禁锢、数据智能凌驾于契约精神、治理制度设计与伦理关照脱钩、师生互动与情感诉求缺乏人文关照四个方面。据此,提出责任伦理视域下教育人工智能的风险治理路径:其一,关注角色认同,促进人技关系的角色化建构与重塑;其二,重塑契约精神,构建智能教育领域数据治理责任规约机制;其三,关注伦理规范,架构可判定责任行为的制度体系;其四,聚焦人文关怀,创设融入情感诉求的人智交互模式。

[关键词] 教育; 人工智能; 风险治理; 责任伦理; 伦理规范

[中图分类号] G434            [文献标志码] A

[作者简介] 赵磊磊(1991—),男,河南新蔡人。副教授,博士,主要从事教育学原理、智能教育研究。E-mail:zhaoleilei199102@163.com。

一、引   言

机器学习、生物识别、情感计算等人工智能技术的飞速发展,不仅带来技术形态与方式的新一轮革命,同时也为教育空间、教育资源、教育管理、教学模式等方面的智慧转型提供了新的机遇与平台。自20世纪60年代起,教育领域已经运用自适应智能系统进行教学;21世纪以来,教育领域兴起了以深度学习、跨界融合、人机协同、机器学习等技术为主的智慧教育新生态。但是,在智能技术快速更新换代的背景下,教育人工智能风险问题也屡见不鲜,如个人隐私数据泄露、学校管理格局的变革冲击、公共安全的威胁等风险问题[1]。从风险治理的角度而言,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,为人工智能风险治理提出框架和行动指南[2],为公众从责任伦理视角思考教育人工智能风险治理提供了新的方向。从教育人工智能实践角度来看,人工智能赋能教育教学是否可能做到尽善尽美?人工智能自身的技术两面性究竟会对教育教学产生何种负面影响?众多议题均处于悬而未决状态,面对相关棘手难题,如何负责任地面对教育人工智能风险成为教育人工智能合规化、合法化发展[3]的关键抓手。为此,本文将基于责任伦理视角,聚焦于教育人工智能风险治理的责任伦理框架、现实困境与责任伦理视域下教育人工智能风险治理路径,以期为新时代教育人工智能风险治理提供有益参照。

二、教育人工智能风险治理的历史进路

1956年,达特茅斯会议首次提出“人工智能”概念后,人工智能的相关研究方兴未艾,深度学习等成為当时的研究热潮。经过十几年的发展,20世纪70年代人工智能正式进入教育领域,随后发展为智能导师系统(ITS),但由于当时计算机的使用成本高、性能差,导致教育领域的人工智能应用遭遇重大挫折。2002年,美国通过《教育科学改革法》,试图在高等教育领域率先推行人工智能技术,“机器学习”“智能导师”再次涌入教育领域,其他国家也纷纷加大对教育信息化的建设与推进力度[4]。此阶段的教育人工智能发展尚处于萌芽期,教育人工智能的算法功能并不成熟,公众缺乏对教育人工智能风险的清晰认知。

2015年以来,人工智能在国际教育领域的应用逐渐增多,我国也高度重视人工智能在各领域的应用。国务院于2017年7月印发《新一代人工智能发展规划》[5],部署人工智能背景下创新型国家和世界科技强国建设。基于此,众多学者研究如何借助智能技术实现教育智能转型。例如:余亮等研究教育人工智能对学习方式的影响,试图探索智能学习资源的特征[6];许涛等探讨将学生的“创新思维、创业意识和创造能力”作为人工智能时代“新工科”人才培养的标准和尺度[7]。同时也有部分学者,如刘三女牙等聚焦于教育人工智能发展面临的困境与未来途径[8],尝试对教育人工智能风险治理的概念与边界进行学理探讨。

2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,为人工智能治理与风险防范提出科学指导,致力于提升人工智能的安全性与可靠性[2]。自此,发展“负责任”的人工智能成为当今教育人工智能风险治理的核心议题。文献梳理发现,教育人工智能风险研究主要关注数据风险[9]、算法风险[10]、情感风险[11]等风险的表征形式、现实危害与治理对策。然而,多数学者对风险治理路径的研究以道德与法律层面的伦理倡议为主。例如:规范教育人工智能的道德行为,建立伦理风险评估和监管机制。相关治理路径的伦理考量并未着重体现“责任”意识与取向,作为衔接道德与法律的关键载体,责任伦理应是教育人工智能风险治理不可忽视的关键视角。

三、责任伦理:教育人工智能风险治理的新视角

在技术时代背景下,传统伦理学与技术责任的碰撞时常发生,如何发展负责任的教育人工智能备受关注,责任伦理为技术时代提供了技术责任考量尺度,也为教育人工智能风险治理提供了全新的伦理向度。为明确教育人工智能伦理风险的治理方向,有必要基于责任伦理视角,对教育人工智能治理主体、客体、工具等治理要素之间的责任关系与行为予以重新审视。

(一)责任伦理解析

“责任伦理”不同于传统伦理学,其是以人的角度谈论介于道德与法律间的规范。马克斯·韦伯(Max Weber)在1919年的著名演讲《政治是一种职业》(Politics As A Vocation)中提出“责任伦理”的概念,并将“形式合理性”作为其核心[12]。20世纪下半叶以来,欧美诸国对于责任伦理的理解逐步深入。例如:美国著名伦理学家芬伯格(Joel Feinberg)的《责任理论》,阐释了责任理论的内涵与其理论体系的构建[13];汉斯·伦克(Hans Lenk)在《责任与技术》中阐明技术中的经济、道德问题通常和责任相关,指明责任伦理在技术发展背景下的实践途径[14]。综合来看,责任成为伦理学的核心范畴,其既是一种内心的道德诉求,也是沟通道德与法律的现代社会基本规范。责任伦理侧重于呼吁人从责任的角度关注技术发展给社会带来的影响,思考教育人工智能治理主体应当承担何种责任。以责任伦理为理论视角,教育人工智能风险治理应重视行为的性质、责任与主客体等要素间的关系以及主体承担的责任,教育人工智能风险治理所蕴含的责任伦理向度尚待进一步探究。92391A63-24D9-4CB8-991C-12C615E30BB5

(二)教育人工智能风险治理呼唤责任伦理介入

从本质而言,伦理行为是一种责任行为,伦理风险也是一种责任风险。教育人工智能风险治理离不开伦理的浸润,也离不开责任的归属与承担。责任既是外在的规范制度,又是内在的道德诉求。教育人工智能风险治理应当在道德与制度伦理向度的基础上,关注责任伦理的独特性与包容性,使其与风险治理的路径相契合[15]。作为技术产物,情感计算、生物感知等人工智能技术在教育领域中的应用具有不确定性与风险性,数据隐私泄露、数据违规采集、智能算法歧视等教育人工智能风险问题频发,然而不少教育行政部门、学校管理部门等相关组织或教育责任个体在相关风险问题的治理层面存在权利与义务不清、行动方向不明等现实困境。对于教育人工智能风险治理而言,政府、学校、家庭等风险治理主体间的利益博弈涉及职责、权利、义务等方面的划分与平衡,进而呼唤责任伦理层面的干预与介入。在人工智能时代,技术的存在具有智慧属性或类人属性,有关人工智能是否应该具有主体存在特性的论断也逐渐兴起,当人工智能具有主体价值时,其与师生等教育主体间的责任归属与关系可能存在较多风险冲突与伦理困境。在推进教育人工智能风险治理方面,极有必要从责任伦理视角分析与解决具体的技术伦理问题。

四、教育人工智能风险治理的责任伦理框架

有关责任伦理的维度拆解存在一定差异。例如:约纳斯将责任伦理分为实质责任、关护性责任与自然责任[16],程东峰将责任伦理分为个体责任、组织责任、契约责任、职业责任与未来责任五个维度[17]。归纳来看,责任伦理主要涉及角色责任、契约责任、前瞻责任、关护责任四个维度。基于此,本研究提出教育人工智能风险治理的责任伦理框架(如图1所示),其中,角色责任是契约责任、前瞻责任及关护责任形成的基本条件,以角色建构为起点,不同责任主體在达成行动契约的基础上,应对教育人工智能风险如何治理进行伦理规约,并形成具有未来取向的前瞻责任。在明确风险治理前瞻性目标的基础上,责任主体施以情感关照,履行特定场域或情境下的关护责任。

(一)角色责任

角色是责任伦理的逻辑起点,无论是个体还是集体都在社会中以“角色”的形式出现。角色作为一种标识,为行为主体戴上了社会面具。角色与责任相互依存,角色是责任的前提。如齐格蒙特·鲍曼(Zygmnut Bauman)所述,“责任依赖角色,而不是依赖扮演角色、完成工作的人”[18]。社会主体只有在行动之后才扮演相应的角色并承担相应的责任。面对教育人工智能的风险治理,不同的行为主体扮演着不同的角色。例如:学生作为教育人工智能的体验者,需承担智能教育质量反馈的现实责任;教师作为教育人工智能的实践者,应有效保障智能技术与学科教学的有效融合;教育管理者作为人工智能监管者与数据管理者,需承担维护公共信息安全、国家信息安全的责任。归纳而言,教育人工智能风险治理需基于不同教育主体行为,根据其角色进行风险控制。

(二)契约责任

随着智能时代的到来,人们的主体意识与法律意识越来越强,契约成为责任的一种要求与形式。一般而言,契约可被视为以法律规定、口头承诺、书面立约以及约定俗成具有约束力的行为形式的统称。契约可将行为主体与行为后果纳入责任范畴。契约负载着责任,契约责任的实现应是最基本的、最现实的、最关键的责任实现。我国现实契约责任的存在包括多种类型,如以《宪法》为基础的公民责任、以生命为纽带的自身责任等,而本文探讨的教育人工智能风险治理中的契约责任主要是以伦理规约为工具的科技责任。科技契约责任是规避与化解人工智能风险的伦理工具,也是实现智能教育合规化发展的重要支柱。

(三)前瞻责任

如约纳斯所述,随着技术时代的变革,行为主体即人类自身的能力发生了技术性转变,传统伦理学仅考虑行为后果的当前效应,而责任伦理则体现了前瞻性与长远性[19]。所谓前瞻责任,就是要求人要对其行为导致的未来结果负责。因仅有人类拥有“责任意识”,这就明确了人类在发展中应当承担的责任和义务。对于智能教育发展而言,具备及时应对智能技术与教育教学整合的风险与可能性后果的能力至关重要[20],需根据情感计算、生物感知等人工智能技术的核心特点,思考与审查智能技术与学校管理、课程教学、教育评价等方面是否具有特征契合性。政府、学校等相关责任主体应适时出台相应措施引导师生重构责任意识,尝试利用顶层设计引导教育人工智能的发展,指明教育人工智能发展的当前问题与未来取向,也应肩负起智能教育顶层设计与风险规避的先导责任。

(四)关护责任

关护责任原指行为主体对其他人与生俱来的责任。在智能时代,关护责任应体现为在集体中以不同责任主体的身份相互关护,关注情感诉求且思量人类整体存在的形式。人工智能的运行全过程主要涉及提出理念、设计、生产、应用和反思调整等方面,参与者不局限于承担教学工作的教师,还有教育管理者、人工智能设计者、学生等多个主体。冈特·罗波尔(G.Ropohl)在其代表作《技术系统论——一般技术论基础》中指出,技术时代的责任不再是以个体伦理为基础的责任,甚至不局限于人,而应当是机制责任、集体责任[21]。考虑到当前一般教育现象与技术交织的复杂后果,从技术发展历程来看,技术应用似乎回避了基于关护责任的决策和行动意愿[22]。从技术与个体交互的角度来看,人工智能与人类均属于教育人工智能场域下的责任主体,责任主体之间的有效互动不仅需要明确基本的角色、规范与计划,也需要切实考虑关护责任在不同责任主体交互过程中的具体体现与落实。

五、教育人工智能风险治理的责任伦理困境

基于前文对教育人工智能风险治理的责任伦理框架的探讨,本文尝试从四个方面对教育人工智能风险治理的责任伦理困境进行具体分析。

(一)教育主体功能遭遇技术禁锢

在责任伦理学中,社会角色的分配要遵循一定的社会准则与自然规律,然而教育人工智能的出现打破了既定秩序与准则,在一定程度上会导致教育主体功能遭遇技术禁锢。首先,从学生角度而言,智能教学系统可定制化推送教育教学资源并捕捉学生的学习轨迹,但是也可能导致学生逐渐依赖智能算法,进而致使学生逐渐缺乏自主学习与探究性学习的意愿,学生主体性进而受到智能技术的禁锢与负面影响。其次,从教师角度而言,教育人工智能可在作业批改、学情分析等方面有助于减轻教师工作负担,然而,许多教师由于自身智能教育素养的缺失,会形成一定程度的“人工智能依赖”,教师教学的艺术性、主体性、创造性可能受到智能算法的负面干扰,也可能出现自我职业认同层面的角色危机。最后,从教育管理者角度而言,基于数据智能的教育决策建议是否可以全盘接受仍然存疑,如一味偏信教育人工智能的推演,则很可能在决策制定与管理实施中出现偏差。92391A63-24D9-4CB8-991C-12C615E30BB5

(二)数据智能凌驾于契约精神

在人工智能场域下,教与学的相关行为与资源均可采用数字化形式进行数据表征与智能分析[23]。由于人工智能易受数据元素干扰,伪造数据愚弄决策、受利益驱使泄露隐私数据等现象时常发生[24],数据智能凌驾于契约精神成为教育人工智能不容忽视的现实问题。其一,责任主体契约精神的缺失。在人工智能场域下,师生、家长、教育管理者等责任主体应当在平等的状态下达成数据契约。然而,数据的收集过程涉及学生、教师、家长等多个责任主体的隐私权、知情权等合法权益,使用教育数据的权限一般集中于教育管理者、人工智能设计者等,权责的不对等致使数据的使用权与所有权出现失衡现象。其二,智能算法僭越教育行为主体的个性化。人工智能通过算法构建责任主体的数据画像[25],这一过程很可能在学生或教师不知情的情况下发生,容易出现学生主体的能动性被动受算法主导的问题,同时由于支持数据挖掘的模型的许多特性、度量和分析结构均是由其设计者选择的,此类技术可能会复制设计者的先入之见和偏见,进而会在一定程度上导致智能技术侵犯主体的合法权益、侵占主体个性化的表达空间等问题频发[26],从而违背以契约价值为基准的科技责任,导致数据智能凌驾于契约精神。

(三)治理制度设计与伦理关照脱钩

前瞻责任较为强调顶层设计与制度建设的重要价值,尽管已有不少关于人工智能伦理原则的畅想与建议[27],但依然存在教育人工智能风险治理制度设计与伦理关照脱钩的现实问题。一方面,目前教育人工智能责任行为缺少伦理意识的指引与伦理准则的约束,教育人工智能風险预警制度设计在伦理关照方面并未有效凸显前瞻性,进而导致很难尽早发现教育领域人工智能开发与应用的可能性风险,预先设置应急处理方案甚至成为一种治理奢望。另一方面,人工智能的责任归属问题治理缺乏前瞻性政策指引。当教师、学生、家长等群体受到智能决策系统影响时,通常被动向数据管理者开放隐私,且由于人工智能系统的设计、生产和实施过程的复杂性和分布性,一旦数据泄露,很难直接追究对这些结果负责的各方的责任。若缺乏相关法律或决策对于人工智能所导致后果的责任归属问题进行界定,可能会制约智能算法偏见、数据泄漏等伦理风险问责机制的有效构建,并导致人工智能的教育应用缺乏伦理关照。

(四)师生互动与情感诉求缺乏人文关照

人工智能在与个体进行交互的同时也伴随着潜在的情感疏离风险,其可能会引发师生互动与情感诉求缺乏人文关照这一现实问题。一方面,通过智能算法实现的超个性化人机互动在本质上对师生之间世界观、人生观与价值观的互动易产生疏离作用,若学生严重依赖人机交互获取知识与资源,不仅有可能导致师生互动需求的减少,也会导致学生过度依赖及迷恋人工智能的“智能魅力”。另一方面,人工智能可引发师生情感诉求的疏离风险。人工智能可通过大数据计算与预测学生的兴趣偏向,若学生长期通过人工智能进行沟通,缺乏家长、教师的情感引导,其情感态度与价值观难以正确树立。而且,智能教育可能在人与技术互动过程中对教师产生情感冲击[28],若教师缺乏正确的人工智能感知态度与责任意识,可导致教师职业倦怠、心理健康问题频发、教师幸福感缺失、人工智能焦虑感骤增等问题。

六、责任伦理视域下教育人工智能风险治理路径

发展“负责任的教育人工智能”是对人工智能与教育教学和谐共处的期望,也是化解当前风险治理困境的有效发展路径,为人机和谐的未来智能教育模式构建提供了现实参照。因此,本研究将基于前文对教育人工智能风险治理的责任伦理困境分析,提出责任伦理视域下教育人工智能风险治理的路径(如图2所示)。

(一)关注角色认同,促进人技关系的角色化建构与重塑

角色分配与教育人工智能风险治理的有序推进密不可分,公平、科学地分配治理角色将成为治理体系良性运行的关键。面对教育人工智能风险治理所出现的角色混乱现象(如师生自我身份感与归属感的缺失),教育主体需增强角色认同感,促进人与技术关系(即人技关系)的角色化建构与重塑。首先,在学生角色认同方面,学生应成为智能化信息挖掘的实践者,利用智能终端或平台对碎片化学习资源、非结构化信息进行有效聚合,实现对碎片化知识的结构化加工与建构,明确学生在智能教育实践中的信息反馈责任。其次,在教师的角色认同方面,教师需在人工智能与学科教学整合中坚守教师职业本性,通过技术领导者角色的自我建构引导智能技术的合规化应用。教师应当合理利用数据智能技术与平台,根据学生的行为模型与数字画像观察并定位学生的学习特征与学习需求,加强对智能技术与教育教学整合的理解、反思与引导。最后,在教育管理者的角色认同方面,管理者应充分提升自身智能教育素养、数据素养以及数字化胜任力,需实现基于共享智能数据的教育决策与管理,着力于利用智能算法对教育资源进行公平配置,避免出现智能算法偏见与歧视等伦理风险。

(二)重塑契约精神,构建智能教育领域数据治理责任规约机制

从契约精神层面来看,可通过规约条例引导教育人工智能风险治理,进而规范数据智能的价值释放过程。在教育人工智能场域,数据治理面临侵犯数据提供者合法权益、智能算法僭越教育主体性等现实风险。为此,极有必要重塑契约精神,构建智能教育领域数据治理责任规约机制。首先,关注契约精神,加强对师生等群体数据责任意识的培养。在应对人工智能的数据安全威胁时,契约精神的树立需要以权益和法律为责任底线进行保障,数据提供者(如教师、家长等群体)应树立个人数据安全的权益保护意识,数据搜集者应事先征求责任主体的同意,地方政府、学校等应携手制定保护师生等群体隐私权、知情权等合法权益的规约条例。其次,应基于契约精神制订具有约束性的智能算法设计、开发与应用方案,规范算法设计、算法推荐、算法数据的传播,而且,人工智能算法设计应考虑学生、教师等群体的多方诉求,取代以设计者为单一尺度的传统智能算法设计。92391A63-24D9-4CB8-991C-12C615E30BB5

(三)关注伦理规范,架构可判定责任行为的制度体系

责任归属的认定是可判定责任行为的风险治理制度体系架构的基础。当前学界对于教育人工智能风险治理的责任行为关注仍然有限,忽视了教育领域伦理规范的特殊存在价值。为此,极有必要关注伦理规范,架构可判定责任行为的制度体系。第一,构建教育人工智能责任伦理规则与责任监管体系,厘定教育人工智能风险治理主体间的责任范围与责任底线,在明晰智能技术教育角色的前提下制定教育人工智能风险问责标准。第二,应注重完善教育人工智能风险评估制度体系。地方政府应制定教育人工智能风险预估的机制范式,政府、社会、学校、家庭等风险治理主体应协力提高风险预警与化解能力,着力构建基于证据的教育人工智能监测体系。第三,架构具有前瞻性的教育人工智能责任行为问责体系。我国目前已从国家层面制定多项人工智能发展规范,但不少地方政府对于教育人工智能风险治理依然缺乏风险监管与问责机制,因此,亟须进一步明晰教育人工智能风险的责任主体权责,以法律政策、制度规范等形式优化人工智能设计者等群体的行为归责机制。

(四)聚焦人文关怀,创设融入情感诉求的人智交互模式

目前,人工智能尚未在情感智能方面实现对于人类情感功能的实质性超越,也难以满足学生多样化的人文诉求,为此,教育人工智能风险治理亟须聚焦人文关怀,创设融入情感诉求的人智交互(即人与人工智能的交互)模式。首先,应关注师生的情感诉求与立德树人根本目标,避免智能算法对教师、学生及家长之间的情感交流产生负面技术影响。从学生角度而言,加强智能教育场域下学生与教师间的情感连接,帮助学生群体通过德性内化信念、道义驱动行为进行自我伦理观念的建构;从教师角度而言,应关注教师的职业倦怠与职业心理健康,及时监测教师的人工智能焦虑感,关注并改善教师对于人工智能教育应用的感知态度与责任意识。其次,应当促使智能技术成为师生个人能力的充分延伸,也应当关注智能教育场域下责任伦理的边界和尺度,及时关注师生等群体的情感与情绪变化轨迹,避免人工智能对师生等群体身心发展带来负面情绪干扰,以审视与批判的态度看待个体与人工智能的互动。

七、结   语

针对教育人工智能风险治理,技术、道德、法律层面已受到足够多的关注,但伦理层面的思考更多从道德伦理和制度伦理的向度出发,有关教育人工智能责任的论述与探究相对较少,“负责任的教育人工智能”成为人工智能与教育教学融合的伦理诉求,责任伦理视域下教育人工智能风险治理的理论体系亟待进一步挖掘与建构。由此,本文以发展负责任的人工智能为起点,基于责任伦理视角架构教育人工智能风险治理框架,也是对教育人工智能风险化解的理论回应。教育人工智能蕴含的责任价值与伦理价值,也在一定程度上促使责任伦理成为教育人工智能风险治理的必由之路。教育人工智能的合规化发展不仅需要注重硬件设施、软件资源的合理铺设与架构,也应关注人与技术、人与人之间伦理关系失范所导致的风险性问题。如何在教育人工智能风险治理过程中融入责任诉求,构建和谐化的人技关系与责任体系,对于教育人工智能风险治理体系的构建极具必要性与实践导向价值。

[参考文献]

[1] 惠志斌,李佳.人工智能时代公共安全风险治理[M].上海:上海社会科学院出版社,2021:226.

[2] 新华社.发展负责任的人工智能:我国新一代人工智能治理原则发布[EB/OL].(2019-06-17)[2022-03-10].http://www.gov.cn/xin wen/2019-06/17/content_5401006.htm.

[3] 陈全真.智能机器人权利存在的由因及对策[J].贵州师范大学学报(社会科学版),2019(3):144-151.

[4] 方海光.教育大數据:迈向共建、共享、开放、个性的未来教育[M].北京:机械工业出版社,2016:21-25.

[5] 国务院. 国务院关于印发新一代人工智能发展规划的通知[EB/OL].(2017-07-20)[2022-03-10].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

[6] 余亮,魏华燕,弓潇然.论人工智能时代学习方式及其学习资源特征[J].电化教育研究,2020,41(4):28-34.

[7] 许涛,严骊,殷俊峰,周斌.创新创业教育视角下的“人工智能+新工科”发展模式和路径研究[J].远程教育杂志,2018,36(1):80-88.

[8] 刘三女牙,彭晛,沈筱譞,孙建文,李卿.数据新要素视域下的智能教育:模型、路径和挑战[J].电化教育研究,2021,42(9):5-11,19.

[9] 冯锐,孙佳晶,孙发勤.人工智能在教育应用中的伦理风险与理性抉择[J].远程教育杂志,2020,38(3):47-54.

[10] VAN DE POEL I. Embedding values in artificial intelligence (AI) systems[J]. Minds & machines, 2020,30:385-409.

[11] BORENSTEIN J, HOWARD A. Emerging challenges in AI and the need for AI ethics education[J]. AI and ethics, 2021(1):61-65.

[12] WEBER M. Max Weber"s complete writings on academic and political vocations[M]. New York:
Algora Publishing, 2008:155-207.92391A63-24D9-4CB8-991C-12C615E30BB5

[13] FEINBERG J. Doing & deserving:
essays in the theory of responsibility[M]. Princeton:
Princeton University Press, 1974:32-37.

[14] LENK H, MARING M. Responsibility and technology[J]. Argumentos de razón técnica, 2002,(5):257-277.

[15] BAUM S D. Baum. Social choice ethics in artificial intelligence[J]. AI & society, 2020,35(1):165-176.

[16] JONAS H. Technology and responsibility:
Reflections on the new tasks of ethics[J]. Social research, 1973,40(1):31-54.

[17] 程东峰.责任伦理导论[M].北京:人民出版社,2010:266-300.

[18] 齐格蒙特·鲍曼.后现代伦理学[M].张成岗,译.南京:江苏人民出版社,2003:89-94.

[19] JONAS H. The imperative of responsibility:
in search of an ethics for the technological age[M]. Chicago:
The University of Chicago Press, 1984:83-89.

[20] COECKELBERGH M. Artificial intelligence, responsibility attribution, and a relational justification of explainability[J]. Science and engineering ethics, 2020,26(4):2051-2068.

[21] ROPOHL G. Mixed prospects of engineering ethics[J]. European journal of engineering education, 2002, 27(2):
149-155.

[22] LENK H. Advances in the philosophy of technology:
new structural characteristics of technologies[J]. Society for philosophy and technology quarterly electronic journal, 1998,4(1):56-62.

[23] 祝智庭,韓中美,黄昌勤.教育人工智能(eAI):人本人工智能的新范式[J].电化教育研究,2021,42(1):5-15.

[24] TUOMI I. The impact of artificial intelligence on learning, teaching, and education policies for the future[R]. Luxembourg:
Publications Office of the European Union, 2018:14-23.

[25] 钟卓,钟绍春,唐烨伟.人工智能支持下的智慧学习模型构建研究[J].电化教育研究,2021,42(12):71-78,85.

[26] LESLIE D. Understanding artificial intelligence ethics and safety:
a guide for the responsible design and implementation of AI systems in the public sector[R]. London:
The Alan Turing Institute, 2019:13-36.

[27] 张立国,刘晓琳,常家硕.人工智能教育伦理问题及其规约[J].电化教育研究,2021,42(8):5-11.

[28] 赵磊磊,陈祥梅,杜心月.人工智能时代师生关系构建:现实挑战与应然转向[J].教育理论与实践,2021,41(31):36-41.92391A63-24D9-4CB8-991C-12C615E30BB5

猜你喜欢人工智能教育国外教育奇趣华人时刊(2022年13期)2022-10-27我校新增“人工智能”本科专业西安航空学院学报(2022年2期)2022-07-04题解教育『三问』当代陕西(2022年4期)2022-04-19教育有道——关于闽派教育的一点思考福建基础教育研究(2019年9期)2019-05-282019:人工智能商界(2019年12期)2019-01-03人工智能与就业IT经理世界(2018年20期)2018-10-24办好人民满意的首都教育北京教育·普教版(2018年1期)2018-01-29数读人工智能小康(2017年16期)2017-06-07下一幕,人工智能!南风窗(2016年19期)2016-09-21下一幕,人工智能!南风窗(2016年19期)2016-09-21

推荐访问:人工智能 诉求 伦理