大模型生成内容时 , “幻觉”并不都是坏事 , 但代价是 , 如果没有小心审查 , 错误的信息将在互联网上蔓延 。人工智能公司小冰CEO李笛向《中国新闻周刊》举例 , 假如大模型生成内容中 , 编造的信息只有10% , 如果一天中有一亿次的并发(单位时间内系统同时处理的请求数) , 便会产生1000万条假消息 , 如果被一些自媒体或个人不加审核就投放到市场 , 几轮转发后 , 人们便难以追溯假新闻来源 。目前AI大模型的问题 , 不在于它会不会出错、它的能力比人类强 , 而是并发太高 , 加上AI极强的说服能力 , 会造成更严重的后果 。
近期 , 大模型开始被指控侵犯个人数据隐私 。3月30日 , 韩国有媒体报道 , 三星内部发生三起涉及ChatGPT误用与滥用案例 , 包括两起“设备信息泄露”和一起“会议内容泄露” , 三星公司担心 , 在ChatGPT输入内容后 , 可能会让敏感内容外泄 。当地时间3月31日 , 意大利宣布禁止使用ChatGPT , 起因是一周前 , 多名ChatGPT用户表示看到其他人与ChatGPT对话记录的标题 。意大利官方认为 , OpenAI没有提前告知、非法收集用户个人信息 , 对OpenAI立案调查 , 并要求公司作出回应 。4月初 , 德国、爱尔兰、加拿大等相继开始关注ChatGPT的数据安全问题 。
当地时间4月5日 , OpenAI在官网发布文章 , 详细介绍了公司在AI安全上的部署 , 回应相关争议 , 措施包括模型发布前构建完整的AI安全体系 , 从用户实际使用中积累经验以改善安全措施 , 保护儿童 , 尊重隐私 , 提高事实准确性等 。文中特别提到 , 公司将努力在可行情况下 , 从训练数据集中删除个人信息 , 对模型微调以拒绝有关使用者个人信息的请求等 。
这封公开信呼吁暂停对超过GPT-4能力的大模型的研发 , 换句话说 , 目前绝大多数大模型研发者并不会面临上述挑战 , OpenAI仍是众矢之的 。
并非所有人都同意公开信的内容 。当地时间3月30日 , 当前人工智能和机器学习领域最顶级的学者之一、谷歌大脑的缔造者吴恩达连发4条推特 , 表达反对意见 , 他认为呼吁暂停研发的行为是“一个可怕的想法” , 围绕大模型开发过程中的透明度和审计方式 , 制定法规 , 才是更实用且有效的做法 。当地时间4月7日 , 2018年图灵奖另一位得主、Meta首席科学家杨立昆在一场直播中表达了相似的观点 , 支持监管相关AI产品 , 但不应该监管研究和开发 。
多位受访AI从业者认为 , 公开信建议的措施都难以落地 。比如说 , 对AI生成的内容加水印 。吴恩达表示 , 对于想利用AI生成的内容伪装、造假的行为 , 增加水印会构成一定阻碍 , 但他对这一方案广泛应用并不乐观 。这可能会让提供商在激烈的竞争中落后——用户更倾向于使用没有水印的AI系统 , 从而影响企业的积极性 。
此前 , OpenAI在相关AI伦理安全领域做了许多工作 。媒体曾报道 , OpenAI在非洲肯尼亚雇佣工人 , 对AI输出的暴力、性别歧视和种族主义言论进行标注 , 尽管这一做法被视为对当地人造成极大心理创伤 , 却能清洗不少大模型输出的有害数据 。此外 , GPT-4在2022年8月已完成训练 , OpenAI对其安全风险进行了6个月调整 , 引入50多名专家测试 , 同时加入人类偏好训练提示、奖励模式等 。
公开信发布后 , 针对大模型的伦理安全问题 , 曾毅所在的中科院自动化研究所人工智能伦理与治理研究中心等在国内发起线上调查 , 截至4月4日 , 全国超过500人参加 , 90%参与者认为 , 为社会服务的每一个AI大模型 , 都必须实现伦理安全治理框架 。“这不应是一个可选项 , 而是大模型赋能社会前必须要做的工作 。”曾毅建议 , 每个AI开发机构都应构建一个可技术落地的、有关人工智能安全自动化检测的系统或平台 。多位受访者表示 , 这不能仅靠机构自律 , AI在应用阶段仍需有更完善的法律、法规的监管 。
推荐阅读
- MySQL两个表的亲密接触-连接查询的原理
- 不写代码、靠“玩”ChatGPT年入百万,提示工程师正变成硅谷新宠
- 靳东|明明演技一般,却被吹捧“老戏骨”,这5位演员,演什么都一个样
- 文玩|文玩圈隐喻,什么是“吃药”?什么是“打眼”?
- 蔬菜|“刘海”,泛指年轻女子额前的短发。“刘海”名称的来历第一版本
- 咖啡|有一种尴尬叫“被发型封印颜值”,连高圆圆都被黄圣依艳压了
- “鲇鱼”变“鲨鱼”,特斯拉降价背后的高利润密码
- 杨紫|周迅把机场当自己家了?直接穿条“睡裙”就出来,慵懒惹眼又迷人
- 00后|“上班是大妈,下班是萝莉”,00后主打的就是反差,亲妈都认不出
- 教师|铁饭碗排名“新调整”:公务员倒数第3,中小学老师倒数第2
