acm-header
登录

ACM通信

BLOG@CACM

教育中的安全人工智能需要你


对教育人工智能的兴趣和投资正在加速。当人工智能在教育技术领域广泛应用时,人们对偏见、公平和数据安全等问题的担忧也是如此。与我们计算与学习科学综合研究中心的团队(罢了?),我们看到世界各地的组织联合国教科文组织或新EdSafe AI联盟-正在组织人们解决这些问题。在美国,像斯坦福大学这样的组织正在解决医疗保健领域的人工智能问题,但在教育领域并不多见。在过去的一年里,我的同事们组织了一个人工智能和教育政策工作小组。阅读这篇博客,了解你为什么以及如何参与其中。无论你生活在哪里,人工智能都将来到你的学习者身边,并将提出具有挑战性的问题,需要像你这样的专家。

作为一个有效的定义,与会者认为人工智能是“任何基于理论或数据模式的推断而独立实现目标的计算方法。”读者可能知道,人工智能和机器学习已经被用于教育,以个性化学生作业,在早期预警系统,批改论文,等等。美国国家科学基金会(National Science Foundation)最近向三家研究所投资了6000万美元,以探索新的应用,比如让集体学习更有效的人工智能、支持以叙事为中心的学习的人工智能,以及加速成人学习的人工智能。我们预计,人工智能的应用将在未来几年迅速扩大。

从2021年3月到6月,我们的团队每两周举行一次会议,共有来自学术界、工业界和K-12教育领域的49名参与者。参与者编译一个人工智能与教育政策阅读列表,这是一个很好的起点。与会者都不是政策专家,因此一个大问题是:在教育人工智能领域,政策能做什么?

以下是我们小组考虑的问题:政策如何增加美国学校公平使用AI工具和课程的机会?政策如何提高教育工作者和领导人的人工智能素养?在产品设计过程中,来自管理层、面向客户的人员和公司其他人员的有限AI知识也会对创建合乎道德的AI构成威胁。随着产品的使用,低AI知识可能会导致教学工具的糟糕选择,在实施中滥用,并忽视学生对AI教育的需求。例如,当人工智能建议的决定对学生在学校的机会有重要影响时,政策如何增加问责?最后,政策如何鼓励对人工智能工具进行更清晰的解释?如果没有清晰的表述,教育工作者可能会对自己在为学生做决定时所扮演的角色感到困惑,可能会将自己与最终影响分离开来,工具可能会被滥用和不当营销。

四种政策变化模式,在不同的层面和执行程度上运行,可以促进人工智能为社会造福,每一种模式都有让感兴趣的CACM读者参与的方式。

策略模式一:指南。各机构正在为合乎道德的人工智能制定指导方针。虽然这些规定没有约束力,也无法强制执行,但它们可以为今后的政策制定标准。如果你想参与制定指导方针,你可以联系以下列出的组织,或者在你自己的社区中开始类似的活动:

  • AI4K12倡议正在培育一个利益攸关方社区,以建设州一级的课程规划能力,并为人工智能教学制定国家指南,并为K-12教师策划人工智能资源。

  • 人工智能教育国际伦理框架,于2021年3月发布,为合乎道德的人工智能发展设定了8个目标,是通过与专家的一系列讨论和与年轻人的圆桌会议制定的。
  • 国家教育技术计划(NETP)来自美国教育部的教育技术办公室大约每四年发布一次,以确定优先事项并描述在全国范围内实施教育技术的问题。美国政府在教育工作者、技术专家和公众的参与下制定了NETP。

策略模式二:监管。各级政府都有权执行具有约束力的政策、法律、法案和法规,例如,如何保护学生数据,如何支持有不同需求的学生。即使在政府或法律部门没有正式的职业生涯,你也可以参与政策制定。在当地ACM分会会议上提出问题或加入全国性组织(如ISTE),或与你所在社区的草根团体联系。以下是政策的例子:

政策模式三:本地学校参与

学区做出采购决策,教育决策者,通常有首席技术官,并为更顺利地适应人工智能规划资源。高等教育中也出现了类似的需求。通过制定教师专业发展要求,学校在解决人工智能素养问题上处于特别有利的地位。学校在审核技术方面也发挥着关键作用。作为一名研究人员、家长、社区成员,你可以参与到你所在的地区。你可以向当地的教育工作者或学校董事会做报告。作为一名研究人员,你可以通过教师期刊和在线网站,用低术语和行动导向的语言与K-12的利益相关者交流你的工作,或者在你的研究项目中与学校合作。你也可以与学校领导协会合作,他们需要专家来解决这些新领域。例如,学校和地区利用来自像ISTE这样的组织的资源标准的学生, DigCitCommit联盟的五个数字公民能力:包容、知情、参与、平衡和警觉的CSTA。学校可以多注意采购或技术选择的标准等The Block uncarving网站推荐的指南

策略模式四:质押

非政府组织、非营利组织和其他独立组织可以创建承诺和产品认证,要求签署人承诺遵守某些标准。承诺可以帮助确定在某一领域可以接受或不可以接受的基线,而产品认证则更进一步,要求提供遵从性的证据。承诺和产品认证也提供了大量参与的机会。如果你发现承诺不能弥补的差距,你可以提出建议,甚至创建自己的承诺,向那些可以正式实施并坚持到底的组织推销。一些样本认捐如下:

  • 独角兽项目的数据互操作性承诺供应商而且学校的网络旨在为所有涉众增加数据使用的清晰度。这项质押不能强制执行,但为签署人提供了一定的激励。
  • 学生私隐承诺针对供应商,呼吁在收集和使用学生私人数据时建立信任和透明度。这一承诺是自愿的,但具有法律效力。
  • EdTech股权项目而且数字的承诺正在就教育科技股权产品认证进行合作,该认证要求公司在人工智能工具开发的所有周期中展示股权。该工具不具有法律强制执行力,但会向潜在用户表明人工智能工具中包含了哪些股权考虑。

总体而言,该行业的步伐正在加快:我们将越来越多地看到人工智能被纳入影响学生学习机会的产品中。这些问题很困难,需要ACM社区的各种技术专业知识。我们呼吁更多ACM成员参与进来:这个社区可以利用我们的专业知识深度,为教育制定更合乎道德的AI政策,从而支持更快、更明智的政策实施。

致谢:感谢Joseph Fatheree、Kasey Van Ostrand、Amy Eguchi、Marlo Barnett和Trisha Callella向AI & Ed政策小组介绍了上述许多政策/法规/承诺!本博客基于nsf# 2021159所支持的工作。任何意见、发现和结论或建议都是作者的观点,并不一定反映NSF的观点。

利亚·弗里德曼他是匹兹堡大学和计算与学习科学综合研究中心的研究员。Nancye布莱尔黑她是The Block un雕刻的创始人和首席执行官,国际演说家和作家,ISTE人工智能探索项目的项目负责人,在哥伦比亚大学师范学院完成博士学位。找到她推特艾琳·沃克是匹兹堡大学计算与信息学院和学习研究与发展中心的联合聘任副教授。杰里米Roschelle他是Digital Promise学习科学研究的执行董事,也是国际学习科学学会的会员。


没有发现记录

登录为完全访问
»忘记密码? »创建ACM Web帐号
Baidu
map