[1] |
韩树宇. 人工智能赋能新型工业化的作用机制与实现路径[J]. 区域经济评论, 2024(5):123-129.
|
[2] |
罗锦钊, 孙玉龙, 钱增志, 等. 人工智能大模型综述及展望[J]. 无线电工程, 2023, 53(11):2461-2472.
|
[3] |
于蒙蒙. 腾讯公布MaaS全景图提供一站式大模型服务[N]. 中国证券报, 2023-06-20( A07).
|
[4] |
张恒辉, 张金. 人工智能的应用与发展[J]. 科技创新与生产力, 2024, 45(9):28-31,40.
|
[5] |
史劲. 人工智能领域的机器学习算法研究[J]. 中国新通信, 2021, 23(24):48-49.
|
[6] |
孙志军, 薛磊, 许阳明, 等. 深度学习研究综述[J]. 计算机应用研究, 2012, 29(8):2806-2810.
|
[7] |
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[J]. arXiv Preprint, arXiv: 1706.03762, 2017.
|
[8] |
郭倩, 王皓然. 生成式人工智能系统应用员:让AI大模型加速走向“应用场”[N]. 经济参考报, 2024-10-11( 02).
|
[9] |
秦涛, 杜尚恒, 常元元, 等. ChatGPT 工作原理、关键技术及未来发展趋势[J]. 西安交通大学报, 2024(1):1-11.
|
[10] |
张圆梦, 周琴, 袁丽莉. 大模型驱动下智能化城市公共服务应用探究[J]. 信息通信技术与政策, 2024, 50(9):37-42.
|
[11] |
RADFORD A, NARASIMHAN K. Improving language understanding by generative pre-training[EB/OL]. 2018[ 2024-10-20]. https://api.semanticscholar.org/CorpusID:49313245.
|
[12] |
DEVLIN J, CHANG M, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[J]. arXiv Preprint, arXiv: 1810.04805, 2019.
|
[13] |
RADFORD A, WU J, CHILD R, et al. Language models are unsupervised multitask learners[EB/OL]. 2019[ 2024-10-20]. https://www.semanticscholar.org/paper/Language-Models-are-Unsupervised-Multitask-Learners-Radford-Wu/9405cc0d6169988371b2755e573cc28650d14dfe.
|
[14] |
KAPLAN J, MCCANDLISH S, HENIGHAN T, et al. Scaling laws for neural language models[J]. arXiv Preprint, arXiv: 2001.08361, 2020.
|
[15] |
BROWN T B, MANN B, RYDER N, et al. Language models are few-shot learners[J]. arXiv Preprint, arXiv: 2005.14165, 2020.
|
[16] |
OUYANG L, WU J, JIANG X, et al. Training language models to follow instructions with human feedback[J]. arXiv Preprint, arXiv: 2203. 02155, 2022.
|
[17] |
蒋昌俊. 大智能:大数据+大模型+大算力[J]. 高科技与产业化, 2023, 29(5):16-19.
|
[18] |
黄哲. AI原生时代的应用之变[N]. 中国计算机报, 2024-04-29( 10).
|