2023-04-05 15:12:50 +08:00 
										
									 
								 
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								---
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								layout: post
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								title: 关于最近人工智能的探索
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								tags: [AI, LLM, 人工智能]
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								---
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								  最近人工智能发展的还真是不错啊……<!-- more -->     
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								  
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								# 起因
  
						 
					
						
							
								
									
										
										
										
											2024-01-01 09:01:21 +00:00 
										
									 
								 
							 
							
								
									
										 
								
							 
							
								 
							
								
									
										 
							
							
								  最近ChatGPT为代表的人工智能发展的越来越好了, , , ( ) , , , , Neuro-sama ](https://www.twitch.tv/vedal987 ),所以即使是普通人使用它,都能够减轻自己的工作压力,所以现在的人们都在讨论它。   
							 
						 
					
						
							
								
									
										
										
										
											2023-04-05 15:12:50 +08:00 
										
									 
								 
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  当然在这之前, , , , , , , , , 
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  也正因为现在以ChatGPT为代表的LLM的发展, , LLaMA ](https://github.com/facebookresearch/llama )之类基础的模型, 
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								# 关于LLaMA衍生的模型体验
  
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  在刚开始LLaMA被Facebook开源的时候, llama.cpp ](https://github.com/ggerganov/llama.cpp )这个项目, , , , , , , , , , , ChatGLM-6B ](https://github.com/THUDM/ChatGLM-6B )我就完全跑不了, , 
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  我体验了那个最开始的LLaMA-7B的模型, , , , , , , Alpaca ](https://github.com/tatsu-lab/stanford_alpaca ), , , , , , 这个仓库 ](https://huggingface.co/chavinlo/alpaca-native )就能下载到训练好的模型,在[这里 ](https://huggingface.co/Pi3141/alpaca-native-7B-ggml )可以下载到已经经过量化, ( , ) 
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  我运行这些东西是在我的Macbook Pro上, , ( ) , , , , , , , , 使用GPT-4对话数据微调的13B模型 ](https://huggingface.co/Pi3141/gpt4-x-alpaca-native-13B-ggml ), , , , , , , , , , , 
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  斯坦福的这种Finetune方法成本还是有点高, LoRA ](https://arxiv.org/pdf/2106.09685.pdf )的办法去Finetune模型, , , , , Chinese-LLaMA-Alpaca ](https://github.com/ymcui/Chinese-LLaMA-Alpaca ), , , , , , , , , , ( ? ) , , , , , , , , 在这里 ](https://huggingface.co/Mabbs/chinese-Alpaca-lora-7b-ggml )就能下载到直接就能拿来用的模型了。至于运行的参数就按照之前仓库的操作就行了。   
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								  
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								# 让M2芯片发挥更大的作用
  
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  在我玩完那个llama.cpp项目之后, , , , Core ML Stable Diffusion ](https://github.com/apple/ml-stable-diffusion ), , , Diffusers ](https://apps.apple.com/app/diffusers/id1666309574 )可以拿来试试看, , , , , , , , 
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								  
							 
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
								 
							
							
								# 感想
  
						 
					
						
							
								
							 
							
								
							 
							
								 
							
								
									
										 
							
							
								  从这次体验来看, , , , , , , , ,