硬件要求
运行大语言模型对显卡是有一定的要求的,入门配置是3060+24G 内存,推荐配置是4090+32G内存,如果低于这些配置那就真心不推荐在本地运行大模型了。为此,作者也升级了自己的电脑,因为没有移动办公的需求,且对低噪音是硬性要求,所以作者选择了品牌的工作站,并且没有选择志强CPU,这是因为志强CPU的内存是要求ECC内存条,升级内存条时实在是肉疼。
Ollama安装
Ollama是Meta公司(Facebook改名为Meta)开发的一个开源的大型语言模型(LLM)服务工具,旨在简化在本地运行大型语言模型的过程,降低使用大型语言模型的门槛。它使得开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新的大型语言模型。
上图就是Ollama的官网。安装Ollama非常简单,只需要点击Download,然后一路Next就可以进行安装,需要注意的是没有方法更改安装路径。
安装完成后,在CMD中输入ollama,就会出现下图中的内容,这里也有ollama常用的命令,比如启动ollama,拉取大模型,删除大模型,运行大模型等等。
因为大模型都是很大的,所以我们需要更改大模型的存放路径。比如作者想要将大模型存放在F盘的01_Ollama Models文件夹下,那么就需要设置环境变量如下图所示。
接下来我们就需要下载自己期望的大模型。首先回到Ollama官网,在models栏下可以看到很多家的开源大模型,排在前三位的分别是Google家的gemma2,Meta家的llama3,阿里家的通义千问2.
这里以通义千问为例,当点击了qwen2时,会看到下面的7b这个下拉菜单,然后在下拉菜单里面还有72b,7b,1.5b等选项,这里需要说明的是b这里代表是参数billion的含义,7b就是说7billion,参数越多说明大模型的准确性越高,但相应的模型容量也越大,对本地硬件要求也越高,入门基本的配置选择7b就足够了,太小了也没有必要了。然后复制右边的红色框里面的ollama run qwen2:7b这段代码到CMD中,就可以进行下载了,
等待模型下载完成后,重新启动CMD再输入同样的代码就可以运行通义千问大模型了。这里作者提了三个问题:
请告诉我周树人和鲁迅的关系?
今天是周日,请问56小时后是星期几?
请介绍小说三体的主要内容?
从回答的结果来看还是可以接受的。
理论上在上一步我们已经能够通过对话方式来调用大语言模型了,但是这种方式是没有方法让大语言模型区分析pdf文档等内容,所以这里我们仍然需要使用一个可视化的工具来调用大语言模型,ollama的官网首推是open webui.
从ollama官网上点击GitHub,就能来到ollama托管在Github上的代码页,拉到页尾就能看到community integrations第一个就是Open WebUI。
而Open WebUI的安装方式其实个人觉得在当前国内网络环境是比较麻烦的,因为首先得需要安装Docker,而Docker安装的话,又是需要安装在Linux中。这里作者是参照这位UP主的方法安装的docker
当安装且配置好Docker后,就能在Docker界面窗口看到这样的一行内容。
点击3000:8080端口,就会跳出一个浏览器页面,可以看到这里作者已经下载好了三个不同的大语言模型,分别为gemma2,llamma3与qwen2,
如果是中文内容,作者会优先选择qwen2,如果是英文内容,则优先选择gemma2.
这里作者选择了一本东野圭吾的<<毕业前杀人游戏>>这本书,让大模型分析并概括这本书的主要内容
然后作者给大模型分析了《滚动轴承分析》这本书,并要求它概括主要内容:
并要求大模型重点介绍“滚动轴承的宏观几何学”
并在此基础上,我又提出了“需要更加详细的了解轴承尺寸及公差”,大模型也一一给了解答。
4.总结
总体而言,现在大模型的确还存在着这样或那样的一些问题,但是谁又能说,现在的大模型不是爱迪生发明的第一盏电灯呢,虽然有着各种的不足,但是这指明的是未来的方向。
读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费
】🆓
大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
版权说明:如非注明,本站文章均为 扬州驻场服务-网络设备调试-监控维修-南京泽同信息科技有限公司 原创,转载请注明出处和附带本文链接。
请在这里放置你的在线分享代码