news 2026/3/23 20:32:00

【前端学习AI】大模型调用实战

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【前端学习AI】大模型调用实战

本地部署:基于Ollama调用开源大模型

Ollama 是轻量级本地大模型运行框架,无需依赖云端服务,可快速部署通义千问、Llama 等开源大模型,特别适合无网络环境或隐私敏感场景。

步骤1:安装Ollama

从官方网站下载并安装:ollama.com/

步骤2:拉取并运行大模型(以通义千问3-vl 2B为例)

# 拉取并运行模型(首次执行会自动下载模型文件) ollama run qwen3-vl:2b # 查看本地已下载的所有大模型 ollama ls

关键提示:首次运行需保持网络通畅,下载耗时取决于模型大小和网络速度;2b代表模型参数量(20亿参数),参数量越小,对本地硬件(内存、显卡)的要求越低,运行速度也越快。

步骤3:用LangChain调用Ollama

# 安装LangChain对接Ollama的依赖包 pip install langchain-ollama from langchain_ollama.chat_models import ChatOllama # 初始化模型(模型名称需与本地运行的模型一致) llm = ChatOllama(model="qwen3:0.6b") # 调用模型并打印结果 output = llm.invoke("你好,请介绍一下自己") print(output.content)

前置条件:运行上述代码前,需确保 Ollama 服务已启动(可通过终端执行ollama run 模型名启动对应模型服务)。

二、云端调用:阿里百炼大模型(通义千问)

阿里百炼是阿里云推出的企业级大模型服务平台,支持通过 OpenAI 兼容接口、LangChain 等方式调用通义千问系列模型,具备稳定算力、灵活扩展的优势,适合生产环境或强算力需求的场景。

步骤1:获取API Key(核心鉴权凭证)

  1. 登录阿里百炼控制台:bailian.console.aliyun.com/
  2. 完成实名认证后,在控制台的「API-KEY 管理」模块创建并获取 API Key(用于接口调用的身份鉴权)。

关键提示:API Key 属于敏感信息,需妥善保管,避免公开泄露(如提交至开源仓库、随意分享)。 调用前需确保阿里云账号有可用额度,否则会提示权限不足或额度耗尽。

步骤2:调用大模型(两种常用方式)

方式一:通过OpenAI SDK调用
# 安装OpenAI SDK依赖包 pip install openai from openai import OpenAI # 初始化客户端(配置阿里百炼的鉴权信息和兼容接口) client = OpenAI( # 替换为自己的API Key api_key="你的阿里百炼API Key", # 阿里百炼OpenAI兼容接口地址 base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) # 调用模型生成回复 completion = client.chat.completions.create( # 指定通义千问模型版本(如qwen-plus增强版、qwen-turbo轻量版) model="qwen-plus", messages=[ {"role": "system", "content": "你叫小Q,是一名专业的翻译助手"}, {"role": "user", "content": "你是谁?"}, ], ) # 打印模型回复内容 print(completion.choices[0].message.content)
方式二:通过LangChain调用
# 安装LangChain对接OpenAI的依赖包(适配阿里百炼兼容接口) pip install langchain-openai from langchain_openai import ChatOpenAI # 初始化模型(适配阿里百炼接口) llm = ChatOpenAI( # 阿里百炼的通义千问模型名称 model_name="qwen-plus", # 阿里百炼OpenAI兼容接口地址 base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 替换为自己的API Key api_key="你的阿里百炼API Key", ) # 调用模型并打印结果 response = llm.invoke( [ {"role": "system", "content": "你叫小Q,是一名专业的翻译助手"}, {"role": "user", "content": "你是谁?"}, ], ) print(response.content)

三、核心注意事项

  • 大模型调用主要分为两种模式:同步调用(一次性获取完整回复结果,适合简单问答)和流式调用(逐字/逐段实时输出,贴近真实聊天体验,适合长文本生成场景)。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

​因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/21 7:20:33

LeetCode 3075.幸福值最大化的选择方案:排序

【LetMeFly】3075.幸福值最大化的选择方案:排序 力扣题目链接:https://leetcode.cn/problems/maximize-happiness-of-selected-children/ 给你一个长度为 n 的数组 happiness ,以及一个 正整数 k 。 n 个孩子站成一队,其中第 i…

作者头像 李华
网站建设 2026/3/14 8:20:59

Open-AutoGLM 2.0实战指南:从零到部署的完整路径,节省200+开发工时

第一章:Open-AutoGLM 2.0实战指南:从零到部署的完整路径,节省200开发工时 环境准备与依赖安装 在开始使用 Open-AutoGLM 2.0 前,确保系统已安装 Python 3.9 及 pip 包管理工具。推荐使用虚拟环境以隔离项目依赖。 创建虚拟环境&…

作者头像 李华
网站建设 2026/3/13 9:48:27

(独家解读)智谱Open-AutoGLM论文中的7个创新点,99%的人还没注意到

第一章:智谱Open-AutoGLM论文的核心贡献概述智谱AI发布的Open-AutoGLM论文提出了一种面向中文场景自动化的大型语言模型(LLM)应用框架,旨在降低大模型在实际任务中的使用门槛。该框架通过引入任务感知的提示工程与自动化微调机制&…

作者头像 李华
网站建设 2026/3/22 16:26:27

16、Windows Azure 存储客户端开发与认证详解

Windows Azure 存储客户端开发与认证详解 在使用 Windows Azure 存储服务时,理解如何通过 REST API 进行操作以及如何构建一个简单的存储客户端是非常重要的。下面将详细介绍相关的关键概念和操作步骤。 1. 基本概念 URL :URL 用于标识你想要获取的资源。在 Windows Azur…

作者头像 李华
网站建设 2026/3/18 20:49:20

18、Windows Azure Blob 存储服务全解析

Windows Azure Blob 存储服务全解析 在云计算时代,存储服务是至关重要的基础设施之一。Windows Azure Blob 存储服务提供了强大且灵活的存储解决方案,下面将详细介绍其定价、数据模型、使用注意事项、API 及客户端库的使用,以及容器的相关操作。 1. 定价策略 Windows Azu…

作者头像 李华
网站建设 2026/3/22 19:55:54

2、网络服务质量(QoS)技术解析

网络服务质量(QoS)技术解析 1. 网络服务相关概念 在网络通信中,为了满足不同的应用需求和用户期望,出现了多种网络服务技术。 保证帧速率(Guaranteed Frame Rate, GFR) :GFR旨在通过添加某种形式的服务质量(QoS)保证来改进未指定比特率(UBR)服务。使用GFR的用户…

作者头像 李华