文:赵志东蔡佳雯
2022年底,美国科技初创公司OpenAI发布的智能聊天工具ChatGPT一夜火爆。与过去一些AI聊天机器人对话时明显的机械感或内容复制粘贴感相比,ChatGPT给出的答复往往逻辑清晰,切中要点,并能与用户进行自然流畅的对话。出于对AI技术究竟发展到何程度的好奇,各行各业的人都开始用ChatGPT进行花式测评,从写代码到做高考数学题,从翻译学术论文到写命题小作文。而ChatGPT的完成度也确实令人感慨,过去仅能由人类完成的创造性工作,一定程度上可以由ChatGPT取代,完成相应内容生产。
ChatGPT的出现,也掀起了人工智能内容生产赛道的热潮。微软已正式将ChatGPT技术接入必应搜索和Edge浏览器。百度有限公司也表示,将在今年3月完成类似ChatGPT的项目“文心一言”的内部测试后向公众开放。
对于ChatGPT展现的“超能力”,不少人对技术发展感到振奋的同时,也对人工智能内容生产及其背后的道德伦理、社会责任和法律风险存在一丝担忧。本文将从算法、数据和内容三个层面,详述ChatGPT背后的法律风险和合规建议。
Multichain设立安全基金,用于补偿用户因系统漏洞造成的损失:3月17日消息,Multichain官方宣布设立安全基金,主要用于补偿用户因多链系统和服务的漏洞而造成的任何潜在损失。从3月17日起,Multichain每月交易费用的10%将用于安全基金。当风险发生,用户确实遭受损失时,Multichain将与第三方安全机构联合调查事件,确定损失原因,分析和补偿计划将显示在Multichain社区中。
据悉,该基金不适用于因项目合作方的系统/服务、用户自己的误操作或用户自己因疏忽而冒险操作而造成的损失。[2022/3/17 14:03:05]
一、ChatGPT生成虚假信息,谁来为答案质量负责?
ChatGPT的技术原理是在算法和数据基础上,利用自然语言处理生成相应回答。具体来说,ChatGPT使用了基于人类偏好的强化学习的机器训练模型,由技术人员预先给ChatGPT输入海量语言数据,并根据人工标注的高质量回答对ChatGPT生成的回答建立打分和奖励模型,引导训练ChatGPT模型对输出结果不断进行校正和优化,并向高分方向完善输出答案,最终使得ChatGPT能够学习人类语言的特征和结构,实现用自然语言进行人机交流。
Chainalysis:数字人民币可能会成为一个可扩展的全球支付网络:1月3日消息,区块链数据分析公司 Chainalysis 政策研究负责人 Salman Banaei 近日谈到数字人民币和 Stablecoin 等问题,他表示:中国即将推出央行数字货币,而且数字人民币有可能成为一个可扩展的全球支付网络,也许会在未来的支付网络中占据显着的市场份额。美国政策制定者应该考虑这些问题,美国和其他监管机构应该谨慎对待 Stablecoin 的发展,避免出现过度监管的风险,并确保他们不会因为过分强调竞争优先事项而把创新者的创新空间抹给去,促进创新是我们成功的关键,我们应该小心保持数字资产的发展。[2022/1/3 8:21:29]
当前,ChatGPT被认为能够处理多种相对复杂的语言类工作,包括自动文本生成、自动问答、延续上下文的连续对话等,并被尝试用于新闻、营销、客服等行业领域。但是,人工智能内容生产并不能保证其内容的准确性,ChatGPT也在用户协议中对此做出了免责声明。比起ChatGPT输出一些“正确的废话”,其“一本正经地胡说八道”带来的危害更是令各国监管机构都十分警觉。
Chainlink 资助 ENS 开发跨链互操作协议 CCIP:10月23日消息,Chainlink 宣布已资助以太坊域名系统 ENS 的开发团队,以表彰他们对跨链互操作协议(CCIP)标准的贡献和持续合作。ENS 团队将利用这项资助来帮助建立 CCIP 的读取功能,进一步提高 CCIP 高效安全地读取链上数据并在区块链网络中传输的功能。除了支持 CCIP 的发展之外,ENS 将把 CCIP 整合到他们的项目中,以支持在二层网络上发行链上的域名。[2021/10/23 20:50:58]
今年1月,OpenAI首席技术官米拉·穆拉蒂表示,ChatGPT可能会被“危险分子”使用于编造事实,这是当下大型语言模型共同面临的挑战。
一方面,在法律、医学等专业领域,用户需要一定的专业知识才能辨别ChatGPT生成内容的真假。如有用户依赖不准确的答案做出判断和决策,可能会危害用户的人身和财产安全。
另一方面,不排除一些别有用心的不法分子,通过向ChatGPT输入虚假或误导性的信息来“训练”其产生虚假信息,严重者可能导致影响舆论或生态、煽动暴力和犯罪等破坏公共利益等严重后果。
Staked成为Chainlink的代码运营商:8月12日消息,Staked成为去中心化预言机Chainlink的Oracle代码运营商,将会进一步让Chainlink的价格参考数据去中心化。
Staked提供高可用性、经过安全审核的基础架构,并且拥有超过3年的运行POS节点的经验,可以确保几百万美元的安全。[2020/8/12]
我国出台的《互联网信息服务深度合成管理规定》,也是旨在应对深度合成技术给法律、社会秩序、公共安全带来的冲击。根据《互联网信息服务深度合成管理规定》给出的定义,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,其中包括篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术。ChatGPT这类人工智能内容生产产品,显然应受该法的规制。
按照《互联网信息服务深度合成管理规定》要求,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络、应急处置等管理制度。
FLETA与Chainlink达成合作 将区块链集成至后者的去中心化预言机网络中:韩国公司FLETA已与Chainlink达成合作,该公司将把其区块链集成到Chainlink的去中心化预言机网络中,为其去中心化应用(DApps)提供可信的数据,并开发一个允许医疗专业人员更容易共享健康记录的系统。
FLETA首席执行官Henry Hong表示:“FLETA区块链的可扩展性和智能合同数据的完整性将通过利用Chainlink的去中心化预言机网络得到提高。此外,通过部署Chainlink的预言机解决方案,我们可以在未来更容易地将区块链技术应用到更多样化的领域。”(BlockchainNews)[2020/6/27]
首先,深度合成服务提供者应当以显著方式提示深度合成服务技术支持者和使用者承担信息安全义务。对于使用其服务生成的可能导致公众混淆或者误认的信息内容,应当在该信息内容的合理位置、区域进行显著标识,向公众提示该内容为深度合成,并在生成疑似违法信息时提示用户存在虚假信息的安全风险。
其次,深度合成服务提供者应当加强深度合成内容管理,建立健全用于识别违法和不良信息的特征库,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。如果发现用户利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告。
与此同时,对发布违法和不良信息的相关深度合成服务使用者,要依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。
二、ChatGPT生成歧视性文本,算法盲盒如何监管?
除了《互联网信息服务深度合成管理规定》,ChatGPT等人工智能内容生产产品也受《互联网信息服务算法推荐管理规定》规制。《互联网信息服务算法推荐管理规定》中所称算法推荐技术,就包括利用生成合成类算法技术向用户提供信息。该法规的要点,是防止出现算法歧视或算法偏见,生成负面有害信息或低俗劣质信息等不符合主流价值导向的内容。
根据《互联网信息服务算法推荐管理规定》第七条规定,算法推荐服务提供者应当建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络、安全评估监测、安全事件应急处置等管理制度和技术措施。
具体来讲,算法服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果,确保算法模型不违背伦理道德。在此基础上,算法服务提供者同样应以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。
此外,如果是具有舆论属性或者社会动员能力的产品,算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。
以ChatGPT为例,尽管OpenAI在官网上声明,ChatGPT已通过算法设置和训练,能在一定程度上拒绝用户不合理的请求,例如生成可能包含种族歧视或性别歧视、暴力、血腥、等违反法律以及公序良俗的内容。但事实上,这样的违法信息传播风险仍然存在,其引发的法律责任和社会舆论,可能会对公司形象及商誉产生负面影响。
三年前在韩国十分火爆的人工智能聊天机器人LeeLuda,由于一些用户在对话交互时,故意输入污秽和暴力言语,导致LeeLuda在接收这些不符合主流价值观的内容后,开始输出一些涉嫌性别歧视、种族歧视、对弱势群体的歧视的内容,该产品因此广为诟病而于上线不到一个月就中断了服务。
三、用户的输入信息被用来训练ChatGPT,个人信息处理合规要点何在?
ChatGPT的前期训练、后期迭代和强化学习都需要海量的数据,最新开放版本GPT-3.5预训练数据量已达到45TB,其中就包括北京智源人工智能研究院建构的中文语料库WuDaoCorpora中约3TB的中文语料。
《互联网信息服务算法推荐管理规定》第十四条明确规定,深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定。
我国《个人信息保护法》明确了处理个人信息应当遵循的公开原则、诚信原则和最小限度原则,即个人信息处理者应当公开个人信息处理规则,明示处理的目的、方式和范围,不得过度收集个人信息,不得通过误导、欺诈、胁迫等方式处理个人信息。以ChatGPT为例,OpenAI公司为模型训练而收集或处理个人信息的,还需要取得用户个人的同意。
在OpenAI公司就ChatGPT使用常见问题的答复中,OpenAI明确承认,用户与ChatGPT的对话数据,将会被用于ChatGPT的迭代模型训练。并且,OpenAI特别提示,OpenAI暂时无法从输入历史中删除特定某条内容;如果想要删除数据,必须以注销此OpenAI账号的方式,而该账号所有的相关数据会被一起删除,故用户不要在使用ChatGPT时输入敏感信息或机密内容。
因此,在类似ChatGPT的人工智能内容生产产品开发和后期升级过程中,尽可能使用公开的非个人信息,或对收集的个人信息进行匿名化的处理。如果必须要使用个人信息,应当明确向用户告知并取得其个人同意,避免违法使用个人信息造成的侵权或损害。
标签:CHAATGHATEFImakeupchainKaratgold CoinHat Swap CityWeFilmChain
原文作者:Cookie,律动BlockBeats昨日,@domodata启动了一场基于Ordinals协议的创新实验「BRC-20?」.
作者:北辰 但尴尬的是,DeFi衍生品赛道直到半年前才开始真正繁荣,并且跑出来的项目都在我们的关注视野之外……尤其是我们认为它们就DeFi衍生品而言,要么不够DeFi,要么不够衍生品.
作者:@菠菜菠菜 钱包作为进入加密世界的入口以及通行证在整个加密行业中有着不可替代的地位,使用钱包也是每一个想进入加密世界的人不可避免的一环.
作者:金色财经Jason. 金色财经?区块链2月28日讯?作为“无聊猿”BAYC背后公司,市值约40亿美元的Yuga?Labs今天宣布将于本周晚些时候推出基于比特币区块链的NFT项目“Twelv.
来源:Coinbase 编译:比推BitpushNewsMaryLiu今天,我们很高兴地宣布推出Base的测试网,这是一个以太坊第2层(L2)网络.
来源:Aaron推文 编译:念青,ChainCatcher由于空投预期,Blur的热度一直在持续。在近期的总交易量上,Blur也一度超越行业老大OpenSea,加速抢占NFT交易市场份额.