什么是 电鱼智能 EFISH-SBC-RK3576?
电鱼智能 EFISH-SBC-RK3576是一款面向“后 AIoT 时代”的中高端嵌入式平台。它搭载Rockchip RK3576SoC(8nm 工艺),集成了4×A72 + 4×A53处理器与6 TOPS NPU。
与前代产品最大的不同在于,RK3576 的 NPU 不仅擅长传统的分类检测(YOLO),更针对Transformer架构进行了优化,官方支持RKLLM工具链。这意味着它具备了运行Qwen-1.8B、TinyLlama等端侧大模型以及Stable Diffusion(量化版)的能力,是高性价比的边缘 AIGC 算力底座。
![电鱼智能 EFISH-SBC-RK3576 主板:NPU 标识与 HDMI/eDP 接口展示]
为什么 数字标牌需要“自适应生成”?(趋势分析)
在注意力稀缺的时代,静态海报和循环视频已成“视觉噪音”。RK3576 带来的生成式 AI 能力解决了以下痛点:
1. 从“库存素材”到“实时创作”
现状:商家需要提前制作针对男性、女性、儿童等几十套素材,制作成本高,且无法穷尽所有场景。
RK3576 创新:风格迁移 (Style Transfer)。
当检测到顾客穿着红色衣服时,NPU 运行 Fast-Style-Transfer 模型,将广告背景实时渲染为红色系艺术风格,视觉上的“呼应”能瞬间抓住顾客眼球。
2. 从“固定话术”到“智能文案”
现状:广告语是固定的,比如“新品上市,欢迎品尝”。
RK3576 创新:端侧 LLM 文案生成。
摄像头分析出顾客是“疲惫的上班族”。本地部署的 Qwen-1.8B 模型自动生成暖心文案:“工作辛苦了,来杯拿铁提提神吧!”并实时叠加在屏幕上。这种情感化的连接是传统逻辑无法实现的。
3. 低成本的虚拟人驱动
现状:高逼真的 3D 虚拟人需要昂贵的 PC 显卡驱动。
RK3576 创新:2D 虚拟人驱动 (SadTalker / Wav2Lip)。
利用 NPU 算力,只需一张静态照片和一段语音(TTS),即可通过 AI 实时生成口型同步的播报视频,成本极低,交互性极强。
系统架构与数据流 (System Architecture)
本方案构建了一个“感知-决策-生成”的闭环系统,所有处理均在边缘端完成,无需上传云端。
拓扑逻辑
感知层:
Camera->NPU (YOLOv8):提取顾客特征(年龄、性别、衣着颜色、表情情绪)。
生成层 (Core - RK3576):
Prompt Engineer:将特征转化为 Prompt(提示词)。例如
User: Happy, Female, Red Dress.Visual Gen (NPU):运行CycleGAN或Lite-SD,对广告背景进行风格化重绘。
Text Gen (NPU):运行RKLLM,生成个性化营销标语。
合成层 (RGA/GPU):
将生成的背景、动态生成的文字与商品图层进行硬件合成。
显示层:
HDMI 2.1-> 4K 屏幕呈现。
关键技术实现 (Implementation)
1. 部署端侧 LLM 生成文案 (RKLLM)
使用 Rockchip 官方的 RKLLM 工具链,在 NPU 上运行量化后的微型大模型。
Python
from rkllm.api import RKLLM # 1. 加载模型 (如 Qwen-1.8B-Int4) model = RKLLM() model.load(model_path='./qwen-1.8b-int4.rkllm') # 2. 构造 Prompt user_state = "一位年轻女性,看起来很开心" prompt = f"你是一位咖啡店导购。顾客是{user_state}。请生成一句不超过15个字的各种营销语,带有emoji。" # 3. NPU 推理生成 response = model.chat(prompt) print(f"AI 生成文案: {response}") # 输出示例: "心情不错✨,来杯草莓星冰乐庆祝一下吧!🍓"2. 实时风格迁移 (Python/RKNN)
利用轻量级 GAN 模型改变画面风格。
Python
from rknnlite.api import RKNNLite import cv2 rknn_style = RKNNLite() rknn_style.load_rknn('./candy_style_transfer.rknn') rknn_style.init_runtime() def apply_adaptive_style(ad_image, user_color_theme): # 1. 预处理 img = cv2.resize(ad_image, (512, 512)) # 2. NPU 推理 (耗时 < 50ms) stylized_img = rknn_style.inference(inputs=[img])[0] # 3. 后处理与上屏 display_on_screen(stylized_img)性能表现与边界
在6 TOPS NPU的算力限制下,我们需对 AIGC 的应用场景做合理规划:
| AIGC 任务类型 | 模型示例 | RK3576 性能预估 | 可用性评价 |
| 风格迁移 | CycleGAN / Fast-Style | 30-60 FPS | 极佳,可做实时滤镜特效 |
| 文案生成 | Qwen-1.8B / TinyLlama | 8-10 tokens/s | 良好,生成短句毫无压力 |
| 图像生成 | Stable Diffusion 1.5 (Turbo) | 10-15秒/张 | 一般,适合静态海报轮播,不适合实时交互 |
| 虚拟人驱动 | Wav2Lip (2D) | 20-30 FPS | 良好,可实现实时语音播报 |
结论:RK3576 非常适合做“文案生成”和“风格修改”,但不适合做全图实时的“文生图”。
常见问题 (FAQ)
Q1: 跑大模型会不会让广告机过热?
A: 端侧 LLM 计算密度很大。但 RK3576 采用 8nm 工艺,比老旧的 28nm 芯片能效高得多。在运行 1.8B 参数模型时,NPU 功耗约 2-3W。配合电鱼智能主板的散热设计,可以在无风扇或微风扇环境下稳定运行。
Q2: 为什么不用云端 API (如 ChatGPT)?
A: 1. 延迟:云端往返至少 1-2秒,此时顾客可能已经走过去了。边缘端可做到毫秒级响应。
2. 隐私:将摄像头拍摄的顾客特征上传云端存在合规风险。边缘计算数据不出域,更安全。
3. 成本:数万次 API 调用需要持续付费,而边缘 NPU 是一次性硬件投入。
Q3: 内存够用吗?
A: 电鱼 EFISH-SBC-RK3576 提供 4GB / 8GB LPDDR4 版本。运行 Int4 量化的 1.8B 模型约占用 1.5GB 内存,剩余内存足以支撑 Android 系统和广告播放。