作者都是各自领域经过审查的专家,并撰写他们有经验的主题. 我们所有的内容都经过同行评审,并由同一领域的Toptal专家验证.
玛德琳·道格拉斯的头像

外祖母道格拉斯

Madelyn是Toptal的首席工程编辑,也是Meta的前软件工程师. 她有六年多的研究经验, 写作, 并为工程出版物编辑, 专门研究新兴技术和人工智能. 她曾在南加州大学维特比工程学院担任编辑,她关于工程伦理的研究发表在IEEE的NER 2021会议上.

有特色的专家

特色专家头像

之前在普罗米修斯集团

Surbhi是一名首席技术官、数据科学家和人工智能开发人员. 她是一家早期生成式人工智能初创公司的联合创始人,并在普罗米修斯集团(Prometheus Group)等公司开发了NLP解决方案, 的一样.ai和AuCoDe.
特色专家头像

此前在松下任职

Heiko是一位创始人和人工智能专家,在IT领域拥有20多年的经验. 他是AWS的AI和ML高级解决方案架构师, 在那里他专注于生成式人工智能,并共同组织了AWS NLP峰会.
特色专家头像

曾任职于Jumia Group

Ismail是一位拥有十多年经验的数据科学家. 他的工作范围包括在一家医疗保健初创公司开发GPT聊天机器人,在Jumia Group开发影响数百万人的客户分析系统.
分享

生成式AI无处不在. 具有生成文本的能力, 图片, video, 和更多的, 它被认为是未来三到五年内最具影响力的新兴技术 77%的高管. 尽管自20世纪60年代以来就开始研究生成式人工智能, 近年来,由于前所未有的训练数据量和人工智能的出现,其功能得到了扩展 2021年的基础模型. 这些因素使得ChatGPT和DALL-E等技术成为可能,并引领了生成式人工智能的广泛采用.

然而, 它的迅速影响和增长也带来了无数的伦理问题, Surbhi古普塔说, GPT和 Toptal的人工智能工程师 谁从事过尖端的自然语言处理(NLP)项目,从聊天机器人和营销相关的内容生成工具到代码解释器. 古普塔亲眼目睹了幻觉、偏见和错位等挑战. 例如, 她注意到,一个旨在识别用户品牌目的的生成式人工智能聊天机器人在提出个性化问题(而不是根据一般行业趋势)时遇到了困难,而且未能对意想不到的问题做出回应, 高风险的情况下. “做化妆品生意, 它会询问有关天然成分的重要性的问题,即使用户自定义 独特的卖点 是针对不同皮肤类型使用定制配方吗. 当我们测试边缘情况时,比如用自我伤害的想法或有偏见的品牌理念来提示聊天机器人, 它有时会转移到下一个问题,而没有对问题做出反应或处理问题.”

事实上,仅在过去的一年里,生成式人工智能就已经传播开来 财务数据不正确,时 假法庭案件,生产 有偏见的图片,并提出了一大堆 版权的问题. 虽然 微软, 谷歌,和 EU 有没有提出发展负责任的人工智能的最佳实践, 我们采访的专家表示,由于不断增长的新生成人工智能技术的无限制增长和影响,需要额外的指导方针.

为什么生成人工智能伦理如此重要和紧迫

人工智能伦理与法规 一直在争论 在立法者,政府和全球的技术人员中已经存在了很多年. 但最近的生成式人工智能增加了这类任务的紧迫性,也加大了风险, 同时加剧了现有的人工智能对错误信息和 有偏差的训练数据. 它也带来了新的挑战, 比如确保Authenticity, Transparency, 以及明确的数据所有权指导方针, Toptal人工智能专家海科·霍兹说. 在技术领域有超过20年的经验, 霍兹目前作为人工智能和人工智能的高级解决方案架构师,为全球公司提供有关生成式人工智能主题的咨询 机器学习 在AWS.

现有的问题
在生成式人工智能被广泛采用之前
在广泛采用生成式AI之后
错误信息
主要的风险是铺天盖地的错误信息.g., 在社交媒体上). 通过Photoshop等程序进行的智能内容操作很容易被来源或数字取证检测到, 说霍.
生成式人工智能可以加速错误信息,因为创建虚假但真实的文本的成本很低, 图片, 和音频. 基于个人数据创建个性化内容的能力为操纵打开了新的大门.g., 人工智能语音克隆骗局), 困难 在检测假货时坚持.
偏见
偏见一直是人工智能算法的一个大问题,因为它使主要社会系统中存在的不平等永久化 医疗保健招聘. 的 算法问责法 2019年在美国推出,反映了歧视加剧的问题.
生成式人工智能训练数据集以前所未有的规模放大了偏见. “模型在大量非结构化数据中发现了根深蒂固的社会偏见.g.(如文本语料库),这使得很难检查它们的来源,”霍茨说. 他还指出了有偏差的生成模型输出产生新训练数据的反馈循环的风险.g.(当新模型在人工智能撰写的文章上进行训练时).

特别是, 无法确定某样东西是人工智能还是人类创造的可能会产生深远的影响. 有了深度造假视频, 现实人工智能艺术, 以及能够模仿同理心的会话聊天机器人, 幽默, 以及其他情绪反应, 生成式人工智能欺骗是人们最关心的问题, 霍兹断言.

同样相关的还有数据所有权问题,以及围绕知识产权和数据Privacy的相应合法性问题. 庞大的训练数据集使其难以获得同意, 属性, 或者注明原始来源, 并具有高级的个性化模仿工作能力 音乐家 or 艺术家 创造新的版权问题. 此外, 研究 法学硕士可以从培训数据中泄露敏感或个人信息, 估计 15%的员工 定期将公司信息输入ChatGPT,已经将业务数据置于危险之中.

构建负责任的生成人工智能的五大支柱

应对这些影响广泛的风险, 应迅速制定和实施负责任的生成式人工智能开发指南, Toptal的开发者伊斯梅尔Karchi说. 他从事过各种人工智能和 数据科学项目-包括Jumia Group影响数百万用户的系统. “道德生成人工智能是一项涉及各级利益相关者的共同责任. 在确保以尊重人权的方式使用人工智能方面,每个人都可以发挥作用, 促进公平, 并使整个社会受益,卡奇说. 但他指出,开发人员在创建合乎道德的人工智能系统方面尤为重要. 他们选择这些系统的数据, 设计它们的结构, 并解释它们的输出, 他们的行为会产生巨大的连锁反应,影响整个社会. 伦理工程实践是构建伦理生成人工智能的多学科和协作责任的基础.

人工智能利益相关者及其角色的示意图:开发人员, 企业, 伦理学家, 国际政策制定者, 以及用户和公众.
构建负责任的生成式人工智能需要许多利益相关者的投资.

实现负责任的生成人工智能, Karchi建议在教育和组织层面将伦理道德融入工程实践:“就像医学专业人员从一开始就受到道德准则的指导一样, 工程师的培训也应包括基本的道德原则.”

在这里, 古普塔, 霍, 和Karchi为工程师们提出了这样一个生成式的人工智能道德准则, 定义了在开发生成式人工智能解决方案时要执行的五大道德支柱. 这些支柱从其他专家的意见中汲取灵感, 负责任的人工智能指导方针, 和额外的 generative-AI-focused指导 并且专门针对构建生成式人工智能的工程师.

准确性的伦理支柱, Authenticity, anti-bias, Privacy, Transparency围绕着一个标签,上面写着“伦理生成人工智能”.”
伦理生成AI的5大支柱

1. 精度

现有的生成式人工智能对错误信息的担忧, 工程师在设计解决方案时应优先考虑准确性和Authenticity. 验证数据质量和故障后修复模型等方法可以帮助实现准确性. 最突出的方法之一是 检索增广生成 (RAG)是一种促进法学硕士准确性和Authenticity的领先技术,霍茨解释说.

他发现这些RAG方法特别有效:

  • 使用经过准确性和无偏差审查的高质量数据集
  • 过滤掉低可信度来源的数据
  • 实现事实检查api和分类器,以检测有害的不准确
  • 在新数据上重新训练模型,以解决错误后的知识差距或偏差
  • 建立安全措施,如在文本准确性较低时避免生成文本,或为用户反馈添加UI

对于聊天机器人这样的应用程序, 开发人员还可以为用户构建访问源和独立检查响应的方法,以帮助解决问题 自动化的偏见.

2. Authenticity

生成式人工智能开创了一个关于内容Authenticity不确定的新时代 文本, 图片, 和视频, 因此,构建能够帮助确定内容是否人为生成和真实的解决方案变得越来越重要. 如前所述,这些虚假信息可以放大错误信息并欺骗人类. 例如,他们可能 影响选举,使 身份盗窃 或者降低数字安全,导致 骚扰或诽谤.

“解决这些风险需要多方面的方法,因为它们会带来法律和道德问题,但当务之急是建立深度假检测的技术解决方案。,卡奇说. 他指出了各种解决方案:

  • 深度造假检测算法“深度伪造检测算法可以发现人眼可能无法察觉的细微差异,卡奇说. 例如,某些算法可能会捕捉到视频中不一致的行为.g.(不正常的眨眼或不寻常的动作)或检查的合理性 生物信号 (e.g.(声道值或血流指标).
  • 区块链技术: Blockchain’s immutability strengthens the power of cryptographic 和 hashing algorithms; in other words, “它可以提供一种验证数字资产Authenticity和跟踪原始文件更改的方法,卡奇说. 显示资产的起源时间或验证它没有随着时间的推移而改变 帮助揭露深度造假.
  • 数字水印:可见, 元数据, 或者像素级的印章可以帮助标记由人工智能创建的音频和视觉内容, 和许多 数字文本水印技术 也在开发中. 然而, 数字水印并不是万能的解决方案:恶意黑客仍然可以使用开源解决方案来制造假货, 有很多方法可以去除水印.

值得注意的是,生成式人工智能伪造正在迅速改进,检测方法必须跟上. “这是一个不断发展的领域,检测和生成技术经常陷入猫捉老鼠的游戏中,卡奇说.

3. Anti-bias

有偏见的系统会损害公正性、准确性、可信度和人权,并产生严重后果 法律后果. 生成式人工智能项目应该从设计之初就减少偏见, 说Karchi.

在从事数据科学和软件项目时,他发现了两项特别有用的技术:

  • 多样化的数据收集“用于训练人工智能模型的数据应该能够代表这些模型在现实世界中遇到的各种场景和人群,卡奇说. 促进多样化的数据减少了有偏差结果的可能性,并提高了不同人群(例如, 某些训练有素的法学硕士可以做得更好 对不同的口音和方言做出反应).
  • 偏差检测和缓解算法数据应同时采用减少偏差的技术 训练前和训练中 (e.g., 敌对的去 一个模型能学习不推断的参数吗 敏感的特性). 后来,像 通过意识实现公平 是否可以使用公平指标来评估模型性能并相应地调整模型.

他还指出了将用户反馈纳入产品开发周期的重要性, 哪些可以为感知到的偏见和不公平的结果提供有价值的见解. 最后, 雇佣多样化的技术人员将确保考虑不同的观点,并有助于遏制算法和人工智能的偏见.

4. Privacy

尽管有许多关于数据同意和版权的Privacy的生成人工智能担忧, 在这里,我们重点关注保护用户数据Privacy,因为这可以在软件开发生命周期中实现. 生成式人工智能在多个方面使数据容易受到攻击:它可以泄露用作训练数据的敏感用户信息,并将用户输入的信息泄露给第三方提供商, 发生在 三星公司机密 被暴露.

霍曾与想要从文档聊天机器人获取敏感或专有信息的客户合作,并使用安全保护系统保护用户输入的数据 标准模板 它使用了几个关键组件:

  • 托管在本地或私有云帐户(例如.e., a VPC)
  • 文档上传机制或存储与私有信息在同一位置(例如.g.(同一VPC)
  • 实现内存组件的聊天机器人接口.g.通过 LangChain)

“这种方法可以以私密的方式实现类似chatgpt的用户体验,霍兹说。. 工程师们可能会采用类似的方法,并采用创造性的问题解决策略来设计以Privacy为首要任务的生成式人工智能解决方案——尽管生成式人工智能训练数据仍然会带来重大的Privacy挑战,因为它来自 网络爬行.

5. Transparency

Transparency意味着让生成的AI结果尽可能地易于理解和解释. 没有它,用户就无法有效地检查和评估人工智能生成的内容. 虽然我们可能无法解决 人工智能的黑匣子问题 在不久的将来,开发者可以采取一些措施来提高生成人工智能解决方案的Transparency.

古普塔在一系列功能中提升了Transparency 1nb.ai, 一个数据元分析平台 是否在帮助弥合数据科学家和商业领袖之间的鸿沟. 使用自动代码解释,1nb.Ai创建文档,并通过团队成员可以查询的聊天界面提供数据见解.

“因为我们的生成式人工智能功能允许用户获得自然语言问题的答案, 我们为他们提供了原始的参考资料,从中检索到答案(e).g.(从他们的存储库中找到一本数据科学笔记本).” 1nb.ai还明确规定了平台上的哪些功能使用生成式ai, 所以用户有代理权,知道风险.

研究聊天机器人的开发人员可以做出类似的努力来揭示来源,并指出人工智能在应用程序中的使用时间和方式——如果他们能说服利益相关者同意这些条款的话.

关于生成人工智能在商业中的未来的建议

生成式人工智能伦理不仅重要和紧迫,而且很可能是有利可图的. 执行合乎道德的商业惯例,例如 环境、社会和治理计划 与更高的收入有关吗. 就人工智能而言,a 调查 经济学人智库的一项调查发现,75%的高管反对与产品缺乏负责任设计的人工智能服务提供商合作.

将我们对生成式人工智能伦理的讨论扩展到以整个组织为中心的大规模讨论, 在道德发展的五大支柱之外,出现了许多新的考虑. 生成式人工智能将影响整个社会, 企业应该开始解决潜在的困境,以保持领先地位. 人工智能专家建议,企业可以通过以下几种方式主动降低风险:

  • 设定可持续发展目标,减少能源消耗古普塔指出,培训一个像GPT-3这样的法学硕士的成本是巨大的,大约相当于一年的电力消耗 超过1000个美国家庭每日GPT查询的成本甚至更高. 企业应该主动投资,尽量减少这些对环境的负面影响.
  • 促进招聘和雇佣过程的多样性霍茨解释说:“不同的观点将导致更周到的系统。. 多样性与 增加创新和盈利能力; by 多元化招聘 在生成式人工智能行业,公司降低了有偏见或歧视性算法的风险.
  • 创建LLM质量监控系统法学硕士的表现是高度可变的,研究表明显著 绩效和行为的改变 GPT-4和GPT-3.古普塔指出,2023年3月至6月期间将有5年的时间. “开发人员在创建生成式人工智能应用程序时缺乏稳定的环境, 依赖这些模型的公司需要持续监控LLM漂移,以始终如一地满足产品基准.”
  • 建立公共论坛,与生成式AI用户进行交流Karchi认为,改善 有点缺乏)公众对生成式人工智能用例、风险和检测的认识至关重要. Companies should transparently 和 accessibly communicate their data practices 和 offer AI training; this empowers users to advocate against unethical practices 和 helps reduce 不断上升的不平等 由技术进步引起的.
  • 实施监督程序和审查制度:数字领导者,例如 Meta,谷歌和微软 是否都设立了人工智能审查委员会, 而生成式人工智能将使这些系统的制衡比以往任何时候都更加重要, 说霍. 它们在产品的各个阶段起着至关重要的作用, 在项目开始之前考虑到意想不到的后果, 增加项目需求以减轻危害, 以及监测和补救释放后的危害.

随着对负责任的商业实践的需求扩大,这些方法的利润也越来越明显, 新的角色——甚至整个业务部门——无疑将会出现. 在AWS, 霍已经确定了FMOps/LLMOps 作为一门日益重要的不断发展的学科,与生成式人工智能伦理有很大的重叠. FMOps(基础模型操作)包括将生成式AI应用程序引入生产并在之后对其进行监控, 他解释说. “因为FMOps包含监控数据和模型等任务, 采取纠正措施, 进行审计和风险评估, 并建立持续改进模型的流程, 在这条管道中实现生成式人工智能伦理的潜力很大.”

无论道德体系在哪里以及如何被纳入每个公司, 很明显,在生成式人工智能的未来,企业和工程师都将投资于道德实践和负责任的发展. 生成式人工智能有能力塑造世界的技术格局, 明确的道德标准对于确保其收益大于风险至关重要.

了解基本知识

  • 生成式人工智能对未来的影响是什么?

    生成式人工智能可能会彻底改变内容创建和任务自动化, 改变娱乐业等行业, 广告, 和游戏. 健全的道德和安全措施将是必要的,以防止滥用和确保Authenticity.

  • 生成式人工智能模型的未来是什么?

    未来的生成式人工智能模型有可能提高真实感和创造力. 随着这些模型的发展, 它们可能会更好地模仿人类的创造力, 加强个性化, 简化内容生成. 管理它们的道德使用将是一项重大挑战.

  • 我们离高级生成人工智能还有多远?

    我们目前正处于生成式人工智能技术的早期阶段,有GPT-3等模型.5和GPT-4创建逼真的文本. 但实现完全的现实主义(理解所有场景的背景)仍然具有挑战性.

  • 生成式人工智能的伦理问题是什么?

    生成式人工智能引发了对深度造假和错误信息产生的伦理担忧, 侵犯Privacy, 以及人工智能决策和对人工智能生成内容的问责制缺乏Transparency.

  • 为什么生成式人工智能存在争议?

    生成式人工智能由于其潜在的不利影响而备受争议.g., 滥用创造欺骗性内容),以及它带来的关于失业的担忧, 作者, 知识产权所有权.

  • 生成式人工智能的负面影响是什么?

    生成式人工智能的不利影响包括传播错误信息的可能性, 创意产业工作岗位流失的风险, 识别人工智能生成内容的困难, 以及对内容Authenticity的担忧.

  • 生成式人工智能有偏见吗??

    是的,生成式人工智能可能会表现出偏见,因为它从可能包含人类偏见的数据中学习. 出于这个原因, 使用多样化是很重要的, 具有代表性的数据集,并进行仔细的模型训练.

  • 生成模型的局限性是什么?

    生成模型的局限性包括难以处理多模态数据, 对大型数据集的需求, 可能产生不适当的内容, 以及缺乏对生成内容的控制.

就这一主题咨询作者或专家.
预约电话

世界级的文章,每周发一次.

订阅意味着同意我们的 Privacy政策

世界级的文章,每周发一次.

订阅意味着同意我们的 Privacy政策

Toptal开发者

加入总冠军® 社区.