[1] |
郝英好. 人工智能安全风险分析与治理[J]. 中国电子科学研究院学报, 2020, 15(6):501-505.
|
[2] |
支振锋. 生成式人工智能大模型的信息内容治理[J]. 政法论坛, 2023, 41(4):34-48.
|
[3] |
ALLISON M. 人工智能安全前沿探索[J]. 科技纵览, 2024(3):57.
|
[4] |
European Commission. White paper on artificial intelligence: a European approach to excellence and trust[EB/OL]. (2020-12-15)[2024-12-10]. https://ecEuropaeu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.
|
[5] |
陈伟光. 关于人工智能治理问题的若干思考[J]. 人民论坛·学术前沿, 2017(20):48-55.
|
[6] |
BOYLE E, COUTEAU G, GILBOA N, et al. Efficient two-round ot extension and silent non-interactive secure computation[C]// the 2019 ACM SIGSAC Conference. ACM. New York: Association for Computing Machinery, 2019:291-308.
|
[7] |
Brown T B, Mann B, Ryder N, et al. Language models are few-shot learners[J]. arXiv Preprint, arXiv:2005.14165, 2020.
|
[8] |
陈晴. 人工智能在新闻生产中的应用与影响研究[D]. 广州: 暨南大学, 2019.
|
[9] |
张欣. 生成式人工智能的数据风险与治理路径[J]. 法律科学(西北政法大学学报), 2023, 41(5):42-54.
|
[10] |
宋艳飞, 张瑶, 樊伟. 生成式人工智能安全风险治理研究[J]. 电子知识产权, 2024(3):46-58.
|
[11] |
李森. 风险防范视阈下生成式人工智能数据安全的治理路径:以GPT类模型为例[J]. 西藏民族大学学报(哲学社会科学版), 2023, 44(6):139-145.
|
[12] |
吴育珊, 杜昕. 生成式人工智能的安全风险与法律规制[J]. 岭南学刊, 2023(5):105-112.
|
[13] |
陈兵. 通用人工智能创新发展带来的风险挑战及其法治应对[J]. 知识产权, 2023(8):53-73.
|
[14] |
邱惠君, 张瑶. 大模型发展对人工智能安全风险治理的挑战和应对分析[J]. 工业信息安全, 2023(2):65-72.
|
[15] |
王媚, 刘永志. 互联网人工智能技术应用的意识形态安全风险分析[J]. 燕山大学学报(哲学社会科学版), 2022, 23(2):64-69.
|
[16] |
徐伟, 何野. 生成式人工智能数据安全风险的治理体系及优化路径:基于38份政策文本的扎根分析[J]. 电子政务, 2024(10):42-58.
|
[17] |
钭晓东. 论生成式人工智能的数据安全风险及回应型治理[J]. 东方法学, 2023(5):106-116.
|
[18] |
刘羿鸣, 林梓瀚. 生成式大模型的数据安全风险与法律治理[J]. 网络安全与数据治理, 2023, 42(12):27-33.
|
[19] |
西桂权, 谭晓, 靳晓宏, 等. 挑战与应对:大型语言模型(ChatGPT)的多样态安全风险归因及协同治理研究[J]. 新疆师范大学学报(哲学社会科学版), 2023, 44(6):131-139.
|
[20] |
乔喆. 人工智能生成内容技术在内容安全治理领域的风险和对策[J]. 电信科学, 2023, 39(10):136-146.
doi: 10.11959/j.issn.1000-0801.2023190
|
[21] |
田阳. 风险社会视域下生成式人工智能教育应用悖论:生成逻辑、存在限度与风险治理[J]. 阅江学刊, 2024(4):158-169.
|
[22] |
张惠彬, 许蕾. 生成式人工智能在教育领域的伦理风险与治理路径:基于罗素大学集团的实践考察[J]. 现代教育技术, 2024, 34(6):25-34.
|
[23] |
张彦华, 徐帆. 人工智能影响政治安全的逻辑及其风险治理:基于传播政治经济学的分析[J]. 社会科学战线, 2022(12):196-205.
|
[24] |
胡枫, 张超. 生成式人工智能的理论审视、风险揭示及治理路径:以ChatGPT为视角[J]. 南京邮电大学学报(社会科学版), 2024, 26(6):45-52.
|
[25] |
李泽西, 黄进. 生成式人工智能与国家安全治理:发展趋势、潜在风险与应对思路[J/OL]. 四川行政学院学报, 2024(5):42-50.
|
[26] |
曾宇航, 史军. 政府治理中的生成式人工智能:逻辑理路与风险规制[J]. 中国行政管理, 2023, 39(9):90-95.
|
[27] |
鲁传颖, 张璐瑶. 人工智能的安全风险及治理模式探索[J]. 国家安全研究, 2022(4):84-100,178.
|
[28] |
李霄, 李艳霄. 美国多措并举加强人工智能安全风险管控研究[J]. 信息安全与通信保密, 2024(4):31-36.
|
[29] |
张丁. 全球安全倡议下的中国人工智能治理路径[J]. 信息安全与通信保密, 2023(8):34-45.
|
[30] |
陈劲, 朱子钦, 季与点, 等. 科技安全工程学初探:兼论底线式科技安全二元治理体系构建研究[J]. 科学与管理, 2022, 42(1):1-8.
|
[31] |
陈劲, 朱子钦, 季与点, 等. 底线式科技安全治理体系构建研究[J]. 科学学研究, 2020, 38(8):1345-1357.
|
[32] |
曹开研. 当前生成式人工智能治理面临的挑战[J]. 青年记者, 2023(22):95-96.
|
[33] |
高德胜, 季岩. 人工智能时代个人信息安全治理策略研究[J]. 情报科学, 2021, 39(8):53-59.
|
[34] |
CARLINI N, WAGNER D. Towards evaluating the robustness of neural networks[C]// 2017 IEEE Symposium on Security and Privacy. San Jose: IEEE, 2017:39-57.
|
[35] |
董新义, 梅贻哲. 生成式人工智能之规制框架:基于技术风险与专项治理的视角[J]. 东方论坛-青岛大学学报(社会科学版), 2024(3):107-120.
|
[36] |
SHAW J, ALI J, ATUIRE C A, et al. Research ethics and artificial intelligence for global health: perspectives from the global forum on bioethics in research[J]. BMC Medical Ethics, 2024, 25(1).
|
[37] |
王志新. 人工智能导致的法律挑战及其政策调适[J]. 改革与开放, 2019(11): 47-50.
|
[38] |
赵精武. 生成式人工智能应用风险治理的理论误区与路径转向[J]. 荆楚法学, 2023(3):47-58.
|
[39] |
卢健. 联合BERT与Seq2Seq模型的情感对话生成研究[D]. 长沙: 湖南大学, 2020.
|
[40] |
GERSHGORN D. Facebook says it has a tool to detect bias in its artificial intelligence[EB/OL]. (2018-05-03)[2024-12-10]. https://qz.com/1268520/facebook-says-it-has-a-tool-to-detect-bias-in-itsartificial-intelligence/.
|
[41] |
GERSHGORN D. Stanford’s new AI institute is inadvertently showcasing one of tech’s biggest problems[EB/OL]. (2021-11-02)[2024-12-10]. https://qz.com/1578617/stanfords-new-diverse-ai-institute-isoverwhelmingly-white-and-male/.
|
[42] |
韩易. 基于深度学习的内容自动生成[D]. 上海: 华东师范大学, 2019.
|
[43] |
王熠旭, 李杰, 刘弘, 等. 基于采样和加权损失函数的模型窃取攻击方法[J]. 中国科学:信息科学, 2023, 53(5):931-945.
|
[44] |
GOODFELLOW I J, SHLENS J, SZEGEDY C. Explaining and har-nessing adversarial examples[C]// 2015 International Conference on Learning Representations. San Diego: Computer Science, 2015:1-8.
|
[45] |
赵建强. 生成式人工智能安全风险与治理[J]. 中国安防, 2023(12):77-81.
|
[46] |
沈鹏飞. 符号社交网络中负关系预测以及网络嵌入的研究[D]. 长春: 吉林大学, 2019.
|
[47] |
LAM K, IQBAL F M, PURKAYASTHA S, et al. Investigating the ethical and data governance issues of artificial intelligence in surgery: protocol for a delphi study[J]. Jmir Research Protocols, 2021, 10(2).
|
[48] |
PAWELCZYK M, NEEL S, LAKKARAJU H. In-context unlearning: language models as few shot unlearners[J]. arXiv Preprint, arXiv:2310.07579, 2023.
|
[49] |
ZHANG X, HONG H, HONG Y, et al. Text-CRS: a generalized certified robustness framework against textual adversarial attacks[J]. arXiv Preprint, arXiv: 2307.16630, 2023.
|
[50] |
MADRY A, MAKELOV A, SCHMIDT L, et al. Towards deep learning models resistant to adversarial attacks[J]. arXiv Preprint, arXiv: 1706.06083, 2019.
|
[51] |
LIU J, LOU J, QIN Z, et al. Certified minimax unlearning with generalization rates and deletion capacity[J]. arXiv Preprint, arXiv: 2312.10336, 2024.
|
[52] |
张雨. 江西移动大数据应用创新策略研究[D]. 南昌: 江西财经大学, 2019.
|