在全球范围内,AI正重塑着许多行业的人和组织的思维及行为方式。本文探讨了AI在非营利组织中的发展和应用,强调了AI在社会领域产生的影响力及面临的挑战。公平性的考虑在设计和使用AI工具的过程中至关重要,它有助于缩小数据鸿沟、减少偏见,并使非营利组织的运作更为高效。作者认为,为充分利用AI的潜力,资助者、非营利组织领导者和AI专家需要迅速协同行动,建立为促进公平AI所需的工具和基础设施,从而为构建一个更加公正、包容和繁荣的社会做出贡献。
使用人工智能支持公平
诚然,尽管AI提供了许多令人兴奋的机遇,但其造成严重危害的可能性也是众所周知的。开发人员使用从全社会收集的数据来训练AI算法,这意味着,偏见可能从一开始就存在。例如,金融服务提供商经常使用AI来做出借贷决定,但美国的金融业长期以来一直存在对妇女和有色人种的系统性歧视,包括“红线”政策(redlining,为黑人聚集的社区设置更高的贷款条件和其他享受社会福利的要求)以及不公平的评估和核保政策。由于用于制定借贷决策的算法是根据历史数据训练的,而这些数据反映出,某些住宅区、职业和其他与种族或性别相关的指标会因偏见而处于不利地位,因此,如果这些问题得不到解决,它们可能会延续不公平的借贷行为和金融不平等的情况。即使是用心良苦的非营利组织,也很容易设计出有缺陷的AI应用,造成意想不到的破坏性后果。例如,一个为社会企业家提供种子基金的组织,可能会使用带偏见的金融数据来训练AI,最终会错误地偏向某些人群,从而背离了其促进财富公平的使命。
人们还普遍担心,AI在执行文书处理、分析和创造性任务方面的能力迅速提高,可能会使许多职业甚至整个行业被淘汰。数字媒体公司Buzzfeed最近开始使用AI为其网站生成内容;不难想象,预算有限的非营利组织可能会决定裁掉营销团队,转而依靠AI语言模型ChatGPT。此外,由于缺乏相关法规和经济激励措施,对于组织来说,去考虑AI的公平性就不是一件特别要紧的事了。例如,近年来,谷歌和微软等领先的科技公司都裁减了AI伦理团队的员工。
1.缩小数据鸿沟
私营部门和社会部门之间的数据鸿沟不断扩大,有可能降低在美国提供重要社会服务的非营利组织的效率,使其服务对象得不到所需的支持。正如克里斯·戴格迈尔(Kriss Deiglmeir)发表于《斯坦福社会创新评论》的文章中写道:“数据是一种权力。而可悲的现实是,这种权力越来越多地掌握在商业部门手中,而不是被那些寻求创造一个更加公正、可持续和繁荣世界的组织所掌握。”(全文参见:)AI有助于打破这一趋势,使生成和调动数据与证据的过程去中心化,从而使更广泛的组织(包括那些预算和内部专业知识有限的组织)更容易进行持续的研发、评估和数据分析。
以非营利组织Quill为例,它为学生提供免费工具,帮助他们培养阅读理解、写作和语言能力。Quill使用AI驱动的聊天机器人,要求学生根据一段文本来回答开放式问题。然后,它会检查学生的回答并提出改进建议,如写作要清晰、使用证据支撑论点等。这项技术为学生和学校提供了高质量的批判性思维和写作支持,而原本他们可能无法获得这些资源。正如Quill的创始人兼执行理事彼得·高尔特(Peter Gault)所分享的那样:“美国有 2700 万低收入家庭学生,他们在基础写作方面苦苦挣扎,并发现自己在学校和工作中都处于不利地位……通过使用AI为学生的写作提供即时反馈,我们可以帮助教师支持数百万学生成为更优秀的写作者、批判性思想家和社会行动的积极成员。”
2.减少偏见
有大量案例说明了AI如何使偏见长期存在,包括警察使用算法标记黑人被告未来犯罪的风险高于白人被告,以及公司使用不利于女性候选人的招聘算法。但是,AI也有可能通过支持公平决策来帮助减少偏见。经过深思熟虑设计的算法可以忽略与结果无关的变量(如种族、性别或年龄),而这些变量往往会影响人类的决策,从而帮助非营利组织的工作人员挖掘模型,并根据证据做出决策,而不是受制于人类的偏见和盲点。
First Place for Youth是一家利用AI支持基于证据的决策(evidence-based decision-making)的机构,该机构帮助被收养的青少年顺利过渡到能够自给自足和担负责任的成年阶段。First Place for Youth建立了一个推荐引擎,利用精准分析技术(通过发现数据中的因果关系来预测趋势和行为模式的技术)来分析项目管理和案例评估数据,并从这些青少年结果的差异中学习。这有助于工作人员更好地了解过去哪些方法对特定人群有效,以及哪些个性化支持方案最有可能取得成功。AI算法采用公平视角设计,可以明确不同人口群体是否可以平等地获得项目所包含的内容。此外,为了避免复制任何现有的偏见,这一算法不会匹配基于种族等社会文化因素的案例,因为这些因素不应该成为儿童被选中参加不同项目的原因。
3.提高效率
AI应用犯错的故事比比皆是,从滑稽到可怕不一而足,其中包括必应的聊天机器人向《纽约时报》专栏作家分享黑暗幻想并表白,AI生成的《宋飞正传》(Seinfeld,美国情景剧)因发表对跨性别者不友善的言论而被Twitch要求停播,以及微软的聊天机器人因发表种族主义言论而被关闭。但AI驱动的应用,如推荐引擎、精准分析和自然语言处理,可以帮助组织增加产出,同时减少人为错误。将机械、繁琐的任务交给AI,可以让精力有限的非营利组织员工将更多时间集中在计算机无法完成的战略性工作和直接与人对接的工作上。
“危机短信热线”(Crisis Text Line)是一家非营利组织,免费提供基于短信的心理健康支持和危机干预,该组织利用AI来提高效率和扩大规模,同时保持高质量的人工服务。具体来说,该组织通过既往的短信对AI进行训练,以识别高风险关键词和词组,使其能够根据情况的严重程度更有效地对发短信者进行分类。“危机短信热线”还将AI作为志愿者培训的一部分,以培养其强大的危机应对能力。它的自然语言处理算法是在一组虚构但写实的案例中训练出来的,该算法可以模仿志愿者与服务对象关于焦虑和自残等话题的实时对话。这项技术可以帮助“危机短信热线”高效灵活地培训网络中的志愿者,部分原因是志愿者可以在他们方便的时候完成培训。最重要的是,它可以让工作人员和训练有素的志愿者将更多的时间用于确保服务对象获得高质量的及时支持。
支持非营利组织的AI发展
虽然上述例子提供了令人振奋的说明,展示了AI帮助非营利组织取得更公平成果的可能性,但不幸的是,它们只是个例,而不是常态。社会部门必须采取更多行动,抓住时机;还必须展示可能实现的目标,并建立为促进公平AI所需的工具和基础设施。
我们的组织——Project Evident帮助各组织利用数据和证据的力量产生更大的影响力,并致力于建立一个更强大、更公平的证据生态系统。作为最近为期18个月的AI项目的一部分,我们召集了一批渴望利用AI取得更好项目成果的非营利组织,并开发了案例研究,说明他们的AI试点和采用流程在实践中的情况。为了给开发有效、公平的AI工具提供数据,我们目前正与斯坦福大学的以人为本AI研究所(Institute for Human-Centered AI)合作开展一项全国性调查,以更好地了解非营利组织和资助者对AI的使用情况和学习需求。这些项目阐明了社会部门加强公平的AI生态系统的几种方法。
1.增加对AI工具的投资
许多非营利组织和学区都渴望了解AI如何支持他们的工作,但却缺乏相应的资源。“当你审视非营利组织的资金结构时,会发现它们通常不具备开展这类工作的条件。大多数非营利组织没有时间或资源。”让·克洛德·布里扎德(Jean-Claude Brizard)说道,他是专注于教育的非营利组织Digital Promise的负责人,也是我们团队的参与者。一个简单明了的解决方案是,资助者为AI“原住民”(已经部署AI以创造公平成果的组织)和AI“探索者”(对AI试点感兴趣但缺乏所需资金和支持的组织)提供资助。
基金会也应投资于自身的学习,并探索AI是否以及如何提高资助流程的效率或改进资助策略。例如,我们网络中的一家基金会利用AI阅读和分析过去的资助报告,以发现有效资助策略要素的相关模型。该基金会聘请了一个由评估人员和数据科学家组成的团队来训练大型语言模型,并进行人工交互验证,从而将数千份提案和报告中的定性文本数据转化为结构化的纵向数据。然后,团队将这些数据与主要评估数据(包括来自调查、访谈和焦点小组的数据)结合起来,再根据该计划的变革理论对其进行清理、处理、构建、结构化和标记。最后,团队利用机器学习算法,和人工特别是专业领域专家的指导和审查下,对数据进行了描述性、预测性和因果性建模。这些结果为基金会工作人员提供了按需数据(on-demand data),可用于报告撰写、交互式报告、可视化和仪表板设计,从而增强其了解哪些方法有效、哪些方法无效的能力。这有助于确保新的资助策略建立在现有知识的基础上,并使基金会能够更好地与受资助者和实践者分享所学知识。它们还能提高效率,使项目官员有更多时间与受资助者、潜在受资助者和社区建立牢固的关系——而这是只有人才能胜任的工作。
2.合作解决AI的公平问题
另一个问题是,组织几乎没有财务或监管激励来考虑AI开发带来的伦理和公平问题。而营利部门在设计大多数AI工具和流程时都考虑到了盈利能力和规模化问题。
研究人员、政策制定者、技术援助提供者、资助者、非营利组织从业者和社区成员需要齐心协力,围绕公平的AI推进经过深思熟虑的实践和政策。这项工作可能包括推动立法和监管、为该领域制定框架和标准、与社区合作开发满足其需求的工具,或分享有关调试和监控AI算法偏见的知识和最佳实践。
目前正在开展的几项工作有助于为社会部门提供更好的支持和指导。美国参议院多数党领袖查克·舒默(Chuck Schumer)在去年 6 月宣布,通过举办一系列AI论坛来帮助国会制定全面的、两党的AI法规。去年9 月举行的第一次论坛除了技术专家外,还有劳动者和民权活动家的参与。另一项工作是分布式AI研究所(Distributed AI Research Institute),该研究所研究AI如何对非优势群体造成不同程度的影响,并为AI的发展和实践制定框架,以社区的声音为中心,努力促进公平。这些是有望解决公平和AI问题的跨部门合作的前瞻性范例。
3.立足根本
在试行AI以实现公平成果之前,各组织应具备以下几个能力:明确的战略目标、强大的技术系统、实现正义和公平的设计能力以及浓厚的学习文化。这些并不是新的能力,也不是AI所特有的,但它们在社会领域却经常被忽视,而且总是面临资金不足。
凯莉·菲茨西蒙斯是Project Evident的创始人兼首席执行官,该组织致力于建立一个更强大、更公平的证据生态系统。作为一名坚定的社会创新者,菲茨西蒙斯曾在埃德娜·麦康奈尔·克拉克基金会(Edna McConnell Clark Foundation)担任副主席/首席项目和战略官,并是非营利组织 Leadwell Partners 和风险慈善组织 New Profit的联合创始人,目前担任Leap of Reason社区的大使,以及美国成果组织 “有效投资于有效的入联邦卓越标准”咨询委员会(Results for America’s Invest in What Works Federal Standard of Excellence Advisory Committee)成员。