(1)标准著作:本书尝试从10个方面为生成式AI的安全、监管、合规、伦理问题提供解决方案,可作为该领域的标准参考著作。
(2)专业严谨:本书由多位来自法律、技术和教育领域的专家的跨学科经验凝结而成,确保了内容的专业性和严谨性。
(3)全球视野:本书梳理了全球主要国家和地区在生成式AI领域的监管、立法和司法实践,案例丰富,数据翔实。
(4)实操指南:本书内容全面涵盖生成式AI面临的合规与安全问题,从问题分析到应对策略,提供实战指导。
网站首页 软件下载 游戏下载 翻译软件 电子书下载 电影下载 电视剧下载 教程攻略
书名 | 大模型安全、监管与合规 |
分类 | 教育考试-考试-计算机类 |
作者 | 王贤智 叶娟 陈梦园 刘子旭 等 |
出版社 | 机械工业出版社 |
下载 | ![]() |
简介 | 编辑推荐 (1)标准著作:本书尝试从10个方面为生成式AI的安全、监管、合规、伦理问题提供解决方案,可作为该领域的标准参考著作。 (2)专业严谨:本书由多位来自法律、技术和教育领域的专家的跨学科经验凝结而成,确保了内容的专业性和严谨性。 (3)全球视野:本书梳理了全球主要国家和地区在生成式AI领域的监管、立法和司法实践,案例丰富,数据翔实。 (4)实操指南:本书内容全面涵盖生成式AI面临的合规与安全问题,从问题分析到应对策略,提供实战指导。 内容推荐 内容简介 这是一部从技术安全、监管框架、合规要求、伦理道德等角度全面讲解生成式人工智能安全问题的实战性著作。本书在坚实的理论基础之上,通过丰富的案例和翔实的数据,系统梳理了企业当下在生成式人工智能实践中面临的各种安全挑战,并给出了应对策略。本书的目标是为读者提供全面且实用的行动框架和实操指南,以促进生成式人工智能行业的健康发展。 本书融合了跨学科专家的技术和经验,作者团队包括安全领域的资深技术精英、微软创新教育专家(MIEE)、生成式人工智能技术专家,以及在大数据企业、法律界深耕多年的知识产权与数据合规方面的专家。他们凭借各自的专业知识和实践经验,将理论与实务紧密结合,为读者提供了宝贵的见解和参考。 阅读并掌握本书,你将收获以下10个方面知识: (1)大模型安全的范畴、现状和挑战:包括安全、监管与合规的关键问题,以及国家安全和社会治理角度安全隐患和风险点。 (2)大模型技术层面的安全风险:包括信息安全原则、传统安全风险、识别和分析人类意图的挑战,以及大模型的固有脆弱性。 (3)大模型监管与合规的法律框架:包括全球范围内的AIGC的监管现状,如诉讼压力、执法调查和立法进展,以及国内监管体系和国外典型法域的监管实践。 (4)大模型知识产权合规:在大模型的开发和应用中,如何确保知识产权的合规性,包括著作权、开源协议、专利权、商标权和商业秘密的保护。 (5)大模型数据合规:在大模型的构建过程中如何确保数据合规,包括模型训练、应用和优化等全流程的数据合规。 (6)大模型内容安全:在大模型的应用过程中如何确保内容安全,包括内容监管、内容安全风险和内容安全合规。 (7)大模型算法合规:在大 目录 前言<br />第1章 大语言模型安全及其挑战1<br />1.1 大语言模型的发展历史与技术现状2<br />1.1.1 序章:起源与早期形态2<br />1.1.2 转折:神经网络的兴起2<br />1.1.3 现代巨人:GPT与BERT的时代3<br />1.1.4 技术现状与应用领域4<br />1.2 大语言模型安全的范畴5<br />1.2.1 大语言模型的技术安全:关键挑战是什么5<br />1.2.2 大语言模型的监管与合规:面临哪些关键问题6<br />1.3 生成式人工智能安全的重要性6<br />1.3.1 提升大语言模型的社会信任和声誉7<br />1.3.2 降低大语言模型的法律风险9<br />1.3.3 保护大语言模型的用户数据隐私9<br />1.3.4 保障大语言模型服务的连续性10<br />1.3.5 提高大语言模型的系统稳定性11<br />1.4 大语言模型安全的现状与挑战11<br />1.4.1 大语言模型的安全隐患与主要风险点12<br />1.4.2 大语言模型与国家安全风险14<br />1.4.3 大语言模型安全治理之道:发展与安全并重15<br />第2章 大语言模型技术层面的安全风险17<br />2.1 大语言模型的信息安全原则18<br />2.1.1 机密性18<br />2.1.2 完整性18<br />2.1.3 可用性18<br />2.2 传统安全风险19<br />2.2.1 传统网络攻击依然具有威力20<br />2.2.2 常见的传统网络攻击方式21<br />2.3 识别和分析人类意图上的挑战21<br />2.3.1 恶意意图的识别难题22<br />2.3.2 AI生成虚假信息传播23<br />2.3.3 利用AI进行黑客攻击24<br />2.4 大语言模型的固有脆弱性24<br />2.4.1 对抗攻击25<br />2.4.2 后门攻击29<br />2.4.3 Prompt攻击30<br />2.4.4 数据投毒攻击31<br />2.4.5 模型窃取攻击32<br />2.4.6 数据窃取攻击33<br />2.4.7 其他常见安全风险34<br />第3章 大语言模型监管与合规的法律框架37<br />3.1 全球视野下的AIGC监管现状38<br />3.1.1 AIGC企业面临的诉讼压力38<br />3.1.2 针对AIGC企业的执法调查屡见不鲜41<br />3.1.3 各国抓紧AIGC相关立法44<br />3.2 国内的监管体系45<br />3.2.1 国内监管体系概述45<br />3.2.2 国内现行监管政策梳理与总结48<br />3.2.3 国内重点监管政策解读50<br />3.3 国外的典型法域54<br />3.3.1 欧盟54<br />3.3.2 美国68<br />3.3.3 英国73<br />3.3.4 新加坡75<br />3.3.5 加拿大77<br />3.3.6 韩国78<br />第4章 大语言模型知识产权合规81<br />4.1 著作权82<br />4.1.1 著作权概述82<br />4.1.2 AIGC生成物的著作权定性分析82<br />4.1.3 AIGC技术相关的著作权侵权风险85<br />4.1.4 典型案例分析88<br />4.1.5 小结99<br />4.2 开源协议103<br />4.2.1 开源协议概述103<br />4.2.2 开源协议引发的侵权风险106<br />4.2.3 涉及开源协议的相关案例107<br />4.2.4 涉及开源协议的侵权风险防范措施109<br />4.3 专利权109<br />4.3.1 专利权概述109<br />4.3.2 AIGC场景下的专利权相关问题110<br />4.4 商标权112<br />4.4.1 商标权概述112<br />4.4.2 AIGC场景下的商标侵权113<br />4.4.3 人工智能生成物与商标侵权113<br />4.5 商业秘密115<br />4.5.1 商业秘密概述115<br />4.5.2 AIGC场景下常见的商业秘密相关风险116<br />4.5.3 典型案例分析118<br />4.5.4 小结120<br />第5章 大语言模型数据合规123<br />5.1 模型训练阶段124<br />5.1.1 数据采集124<br />5.1.2 数据质量提升134<br />5.2 模型应用阶段137<br />5.2.1 告知同意138<br />5.2.2 个人信息权利行使138<br />5.2.3 收集儿童个人信息139<br />5.2.4 数据跨境139<br />5.3 模型优化阶段142<br />5.3.1 数据使用142<br />5.3.2 数据安全143<br />第6章 大语言模型内容安全145<br />6.1 内容安全监管146<br />6.1.1 国内视角下的监管146<br />6.1.2 国外视角下的监管147<br />6.2 内容安全风险149<br />6.2.1 权利人提起的民事侵权责任149<br />6.2.2 监管机构提起的行政处罚150<br />6.2.3 刑事处罚150<br />6.3 内容安全合规151<br />6.3.1 模型训练阶段151<br />6.3.2 模型应用阶段155<br />6.3.3 模型优化阶段160<br />第7章 大语言模型算法合规163<br />7.1 算法合规框架概述164<br />7.2 算法备案164<br />7.2.1 法律依据及实施概况164<br />7.2.2 备案流程166<br />7.2.3 算法备案入口及角色167<br />7.2.4 备案所需准备的文件及材料168<br />7.2.5 备案期限168<br />7.3 人工智能安全评估169<br />7.4 算法公开透明170<br />7.5 算法生成内容标识173<br />7.6 算法反歧视176<br />7.6.1 算法设计178<br />7.6.2 训练数据选择179<br />7.6.3 模型生成和优化180<br />7.7 与算法有关的侵权181<br />7.8 算法合规要点总结185<br />第8章 大语言模型伦理安全187<br />8.1 大语言模型伦理:AI技术进步的道德维度188<br />8.1.1 三个案例引发对AI伦理的思考188<br />8.1.2 人工智能伦理概述:一个复杂且涵盖多方面的议题191<br />8.2 人工智能伦理的重要性191<br />8.2.1 提升公众信任:大语言模型伦理规范的社会影响192<br />8.2.2 确保合规性:企业和组织遵守伦理规范的必要性192<br />8.2.3 面向可持续的未来:伦理规范的长期社会影响193<br />8.3 大语言模型伦理安全风险及成因分析194<br />8.3.1 主要的伦理风险194<br />8.3.2 伦理风险的成因195<br />8.4 我国人工智能伦理治理实践195<br />8.4.1 我国人工智能伦理相关法规政策概述196<br />8.4.2 确立科技伦理治理体制机制198<br />8.5 大语言模型伦理风险应对策略205<br />8.5.1 研究开发者的责任205<br />8.5.2 设计制造者的责任206<br />8.5.3 部署应用者的责任207<br />8.5.4 用户的责任208<br />第9章 大语言模型的安全保障方案211<br />9.1 传统技术层面的安全保障212<br />9.1.1 大语言模型在系统层面的安全挑战212<br />9.1.2 大语言模型中可应用的经典安全技术214<br />9.1.3 应用传统安全实践的经验215<br />9.2 数据层面的保障策略217<br />9.2.1 数据收集阶段面临的安全挑战218<br />9.2.2 训练阶段的安全建议219<br />9.2.3 模型推理阶段的安全建议220<br />9.3 可信属性角度的安全防护策略221<br />9.3.1 大语言模型可信任的支柱222<br />9.3.2 人类监管和监督223<br />9.3.3 技术健壮性和安全性223<br />9.3.4 隐私和数据治理224<br />9.3.5 透明度226<br />9.3.6 多样性和公平性228<br />9.3.7 社会和环境变革229<br />9.3.8 问责机制231<br />第10章 生成式人工智能未来展望233<br />10.1 技术视角看大语言模型安全的发展趋势234<br />10.1.1 增强安全性与可靠性234<br />10.1.2 提高透明性与可解释性235<br />10.1.3 优化性能与效率236<br />10.1.4 应对深度伪造技术237<br />10.1.5 区块链技术的集成238<br />10.2 法律视角看大语言模型安全的发展趋势239<br />10.2.1 全球数据保护法律法规在大模型领域的细化与完善240<br />10.2.2 全球范围内算法监管框架的逐渐完善241<br />10.2.3 AI时代的知识产权244<br />10.2.4 伦理规范的法律化251 |
随便看 |
|
霍普软件下载网电子书栏目提供海量电子书在线免费阅读及下载。