本文目录

(上图用百度脑图所画,并不好用,还是要用回MindManger)

AIGC发展历史

文本类

Large Language Model 大语言模型(LLM)
自然语言处理(NLP)
1986年-Jordan Network:时序神经网络
1900年-Jeffrey L. Elman:循环神经网络(RNN)(简化于时序神经网络)
1997年-长短期记忆神经网络(LSTM)(Long Shor-Term Memory)
2014年-Bengio团队:注意力机制模块【后来被应用于AI各个领域】
2017年-Vaswani:Tramsformer模型(采用了注意力机制模块)
2016年-Radford & Alec, etc.:双向编码器表示(BERT)
主要被应用于自然语言的理解
OpenAI:GPT模型(生成预训练 Generative Pre-Training)
OpenAI的成果:GPT-1、GPT-2、GPT-3、GPT-3.5、GPT4、ChatGPT、Sora等
主要被应用于自然语言的生成

图像生成类

2021年-Comp Vis & Runway团队:Stabe Diffusion


以上是我阅读《一本书读懂AIGC——CHatGPT、AI绘画、智能文明与生产力变革》第2章p1-p19的笔记,后续继续补充。

感慨一下,从历史发展中看,很多模型都是2013年之后出现的,这几年比较火的ChatGPT等也不过出现了3年左右。如果当年(2010年)考研考入模式识别或人工智能领域就好了(当时却是认认真真思考过这两个专业),不过物理才是我最喜欢的,也最有成就感。(皮一下)

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注