简介
公益组织一直在探索如何在简化运营的同时扩大影响力。人工智能 (AI),尤其是生成式 AI,常常能成为您实现这些目标的得力助手,而且成本低廉甚至免费。不过,在部署 AI 时,请务必考虑如何以负责任的方式使用 AI。本帮助中心文章内的信息将指导您的公益组织以负责任的方式将 AI 集成到其工作流中。
了解 AI
AI 技术的进步,给公益组织的日常工作带来了新的可能性。为了做好准备以有成效地使用最新技术,必须深入理解两大核心概念:
- 人工智能 (AI):AI 是计算机科学的一个领域,专注于打造旨在模拟人类智能行为(例如思考或学习)的智能机器。
- 生成式 AI:生成式 AI 是一种特定类型的 AI,能够生成新内容,例如文本、图片或其他媒体。公益组织可以使用生成式 AI 来完成各种任务,例如起草社交媒体帖子、整合筹款活动资料、汇总各种数据源等。
- 智能体 AI:一种涉及 AI 智能体的 AI。AI 智能体是一种系统,可将先进的 AI 模型与常用的内容(邮件、日历、文档等)处理工具的访问权限相结合。这样,它们就能在您的掌控下,代表您执行操作。对于公益组织,这可能体现为:一个 AI 智能体负责监控收到的志愿者咨询、查询组织的中央日历以确认培训日期,并自动向有意加入的志愿者发送邀请链接,同时更新中央联系人列表。
搭载 AI 技术的工具可充当数字协作者,助力员工更高效地处理复杂任务,依据数据做出决策并释放无限创造力。想象一下,您可以利用以研究为依据的数据洞见来撰写令人信服的公益金提案,策划能与捐赠者产生深刻共鸣的个性化宣传活动,还可以分析计划数据以找出有待改进之处,而这一切都可以在 AI 的帮助下轻松完成。
Responsible AI 实践和策略
尽管 AI 在帮助公益组织提高效率和影响力方面极具潜力,但在使用这项技术时,请务必确立负责任的实践规范。遵循减少偏见、确保准确性、尊重隐私和披露 AI 使用情况的实践规范,将助力您的公益组织负责任地使用 AI。
减少偏见
与所有以数据为依据的系统一样,请务必注意可能会影响 AI 工具输出的潜在偏见。偏见可能来自开发 AI 时所用的训练数据,也可能来自用户提供的提示和信息。为了减少偏见并负责任地使用 AI 工具,请遵循 ACT Responsibly 框架:
A - 思考
想想此任务是否适合使用 AI。从低风险、重复性的任务开始。如果任务涉及机密数据、需要高度共情或涉及“最终”决策,请重新考虑是否使用 AI。AI 应该辅助人类,而非取而代之。
C - 检查
在使用 AI 生成的输出内容之前,请先进行检查。提取分析洞见时,请务必验证内容是否属实。请从以下方面审查输出内容:
- 准确性:使用可靠的来源核实统计信息。
- 偏见:确保内容公正且能代表您所属的群体。
- 使命契合度:确保语气符合您组织真实的表达风格。
T - 告知
当您使用 AI 时,请告知相关方。公开透明意味着您应该坦诚地公开工具的使用方式。如果内容由 AI 起草,请向利益相关方披露,并始终对最终输出内容承担责任。
确保准确性
如上文“ACT”框架中的“C”所述,使用 AI 工具时,检查准确性至关重要,因为 AI 工具有时会产生“幻觉”,即输出与事实不符的内容。AI 工具可能会提供看似确凿无疑但实际上并不准确的输出。产生这类“幻觉”的原因有很多,包括 AI 工具所用的数据不完整。
为了有效防范和/或及时发现“幻觉”,请务必采用人机协同 (human-in-the-loop) 方法。没有任何 AI 工具能像专业公益人士那样拥有深厚的经验、实践知识和共情力。一种有效的策略是采取人机协同方法,即结合使用机器智能和人类智能来训练、使用、验证和优化 AI 输出。
请牢记:应始终将 AI 输出内容视为高质量的草稿或建议,需要您运用专业知识进行评判和验证。尽管 AI 在帮助公益组织提高效率和影响力方面极具潜力,但在使用 AI 工具时,请务必确立负责任的实践规范。遵循以公正、准确、保护隐私和整体伦理方法为先的实践规范,将助力您的公益组织负责任地使用 AI。
- 提供清晰具体的提示。为 AI 工具撰写提示时,请使用清晰简洁的自然语言,并围绕您的请求提供充足的背景信息。避免使用可能导致结果不准确的模糊或开放式提示。
- 对输出进行事实核查。验证 AI 生成的所有信息的准确性。使用您在研究中找到的可靠信息源来确认信息。
- 了解局限性。请注意,AI 仍处于开发阶段,目前存在局限性。对于需要高准确度的任务,请考虑使用 AI 以外的资源来辅助完成任务。
尊重隐私
无论您是使用 AI 来协助执行基本任务,还是创作新内容,都应考虑这种使用方式可能对您的公益组织成员和服务对象的隐私与安全造成何种影响。以下策略有助于确保您的组织在使用 AI 时能够减少隐私和安全方面的顾虑。
- 查看隐私权政策。通读 AI 工具文档,了解开发者建立的隐私保护措施,包括条款及条件。开展研究,及时了解隐私权法规和 AI 使用最佳实践。
- 限制数据输入。与 AI 工具互动时,请移除机密信息、私密信息或个人身份信息 (PII),以及敏感的组织或受益人数据。
- 企业级安全防护。符合条件的组织可以通过 Google 公益支持计划激活 Workspace 公益版,该版本包含核心服务 Gemini 应用和 NotebookLM 以及企业级安全防护。请查看 NotebookLM 和 Gemini 的具体合规性认证,了解它们对您组织的保障范围。详情请参阅《Google Workspace 隐私信息中心:生成式 AI》。
披露 AI 使用情况
如上文“ACT”框架中的“T”所述,披露您的 AI 使用情况能在您的公益组织内部建立信任,并推广合乎伦理的实践。以下策略可帮助您的组织确保在利用 AI 开展工作时做到公开透明:
- 公开使用情况。请务必在您的公益组织使用 AI 时明确说明这一点。向用户披露您在使用 AI 工具以及使用原因。
- 提供详细信息。说明您所使用工具的类型以及使用意图。提供任何其他信息,以帮助任何有权访问您工作内容的人评估潜在风险。
Responsible AI 使用方面的资源
各类公益组织都在探索如何利用 AI 开展工作。Responsible AI 使用准则可以帮助任何组织确定相关政策和最佳实践。以下资源提供了有关如何负责任地使用 AI 的更多指导。
- Fast Forward’s Nonprofit AI Policy Builder,这是一款免费工具,旨在帮助公益组织制定自己的 AI 使用政策。
- Google 的 Responsible AI 实践和原则。AI 系统设计和开发方面的实践和原则示例。