1. PyFlink UDF 两大类型:逐行 vs 批量(Pandas)
PyFlink 目前支持两种 Python UDF:
通用 Python UDF(general UDF):一行一行处理(row-at-a-time)
适合:逻辑分支多、复杂字符串处理、规则引擎、需要逐行状态/上下文的场景向量化 Python UDF(vectorized / pandas UDF):一批一批处理(batch-at-a-time)
适合:数值计算、批量特征工程、对吞吐要求高的场景(通常更快)
你在声明 UDF 时会看到关键参数func_type="pandas":有它就是 pandas 模式,没有就是逐行模式。
2. 生产必看:Bundling UDFs(否则远端集群必炸)
文档里有一句非常“血泪教训级”的提醒:
只要不是 local mode,并且你的 UDF 定义不在 main() 所在文件里,强烈建议用
python-files打包你的 UDF 代码,否则会遇到:ModuleNotFoundError: No module named 'my_udf'
2.1 为什么会 ModuleNotFoundError?
因为远端 TaskManager / Python worker 的执行环境里没有你的本地工程目录。你在本地能import my_udf,不代表集群节点也能 import。
2.2 怎么做才稳?
把 UDF 定义文件(例如my_udf.py)通过python-files分发到集群,使其进入 worker 的 PYTHONPATH。
如果你在 TableEnvironment 侧管理依赖,通常也可以用:
table_env.add_python_file(...)table_env.add_python_archive(...)table_env.set_python_requirements(...)
(这些在你前面那篇 TableEnvironment 里已经列过了)
工程建议:
- UDF 单独放
udfs/目录,统一入口udfs/__init__.py - 发布时用 zip/whl/requirements 的方式分发,避免“本地能跑、集群不能跑”
3. UDF 资源预加载:重写 open(),只加载一次模型/字典
很多场景你需要在 UDF 里加载资源(比如模型文件、词典、特征映射表),并且希望:
- 只加载一次
- 后续每条/每批数据都复用这个资源
这时就要重写UserDefinedFunction.open()。
3.1 示例:只加载一次模型,然后多次预测
frompyflink.table.udfimportScalarFunction,udffrompyflink.table.typesimportDataTypesclassPredict(ScalarFunction):defopen(self,function_context):importpickle# 注意:资源通常通过 add_python_archive/python-files 下发withopen("resources.zip/resources/model.pkl","rb")asf:self.model=pickle.load(f)defeval(self,x):returnself.model.predict(x)predict=udf(Predict(),result_type=DataTypes.DOUBLE(),func_type="pandas")落地建议(非常重要):
open()里做“重活”(加载模型/初始化连接/构建索引)eval()里只做“轻活”(计算/推理)- 如果资源体积大,优先用
add_python_archive分发,避免每个算子重复下载
4. 在 open() 里读取作业参数:FunctionContext 的正确打开方式
open()方法会收到FunctionContext,可读取:
get_metric_group():当前 subtask 的 metrics 组get_job_parameter(name, default):全局作业参数(强烈推荐做可配置化)
4.1 示例:通过参数控制 hash 因子
frompyflink.table.udfimportScalarFunction,udf,FunctionContextfrompyflink.table.typesimportDataTypesclassHashCode(ScalarFunction):defopen(self,function_context:FunctionContext):self.factor=int(function_context.get_job_parameter("hashcode_factor","12"))defeval(self,s:str):returnhash(s)*self.factor hash_code=udf(HashCode(),result_type=DataTypes.INT())设置全局参数并注册函数:
t_env=TableEnvironment.create(...)t_env.get_config().set('pipeline.global-job-parameters','hashcode_factor:31')t_env.create_temporary_system_function("hashCode",hash_code)t_env.sql_query("SELECT myField, hashCode(myField) FROM MyTable")生产建议:
- 把可调参数都做成 job parameter(阈值、开关、版本号、规则 ID、模型版本)
- 这样你改参数不一定要改代码(至少更可控、更易回滚)
5. 单元测试:怎么测 UDF 才不依赖 Flink 运行时?
文档给了一个非常实用的技巧:对 lambda/函数式 UDF,udf(...)返回对象里有_func可以拿到原始 Python 函数。
示例:
frompyflink.table.udfimportudffrompyflink.table.typesimportDataTypes add=udf(lambdai,j:i+j,result_type=DataTypes.BIGINT())# 单测:抽出原始函数f=add._funcassertf(1,2)==3工程化建议(更好测):
- 把复杂逻辑提取成纯 Python 函数(可直接 pytest)
- UDF 只是薄薄一层 glue(类型声明 + 调用纯函数)
- 对带
open()的类 UDF,可在单测里直接实例化类,手动模拟必要字段(或构造一个假的 context)
6. 最佳实践清单(按踩坑概率排序)
- 非 local 模式:必须打包/分发 UDF 文件(python-files/add_python_file/add_python_archive)
- 重资源加载:放
open(),不要放eval()里反复加载 - 所有“可调”逻辑:优先用
pipeline.global-job-parameters做配置化 - 高吞吐场景:优先考虑 pandas UDF(但注意 pandas 类型支持限制)
- 可测试性:业务逻辑下沉到纯 Python 函数,UDF 仅做封装