背景
本文示范如何使用OpenMLDB和 Byzer-lang 联合完成一个完整的机器学习应用。Byzer-lang 作为面向大数据和AI的一门语言,通过 Byzer-Notebook 和用户进行交互,用户可以轻松完成数据的抽取,ETL,特征/模型训练,保存,部署到最后预测等整个端到端的机器学习流程。OpenMLDB在本例中接收Byzer发送的指令和数据,完成数据的实时特征计算,并经特征工程处理后的数据集返回Byzer,供其进行后续的机器学习训练和预测。
准备
心理准备:安装部署始终是最繁琐的和消耗时间的部分。毕竟操作系统环境千差万别,大家要耐心,及时需求两个社区的帮助。
用户需要找一台 Linux 机器(虚拟机也行),然后部署如下几个应用(都很简单,基本都是下载,解压,运行即可):
- Byzer-lang: Byzer-lang 部署
- Byzer-Notebook: Byzer-Notebook 部署
- OpenMLDB 0.5.2: OpenMLDB 部署,注意是集群版的部署模式,并且 zk 路径要配置成
/openmldb
值得注意的是,如果没有使用对象存储这种共享存储,那么 Byzer-lang, OpenMLDB 需要部署在一台服务器,这样才能互相访问双方产出的文件。
部署时需要注意的几个小问题:
- 部署好JDK8
- 请确保一些基础的命令,有诸如 curl ,ipconfig 等命令。一般部署脚本里会用到,如果没有,按报错提示安装即可。
- 最好使用 bash 执行脚本而不是默认的 sh
对于最后确认是不是安装完成,可以按如下方式进行检查。
首先是检查 OpenMLDB, 用户可以在 OpenMLDB 安装目录里执行如下指令:
./bin/openmldb --zk_cluster=192.168.3.14:7181 --zk_root_path=/openmldb --role=sql_client
顺利连接上后说明是OK的,此时需要初始化一个数据库和表:
> CREATE DATABASE demo_db;
> USE demo_db;
> CREATE TABLE t1(id string, vendor_id int, pickup_datetime timestamp, dropoff_datetime timestamp, passenger_count int, pickup_longitude double, pickup_latitude double, dropoff_longitude double, dropoff_latitude double, store_and_fwd_flag string, trip_duration int);
执行完成后大概这个样子:
其次是检查 Byzer ,可以访问服务器的 9002 端口,如果你顺利进入 Byzer-Notebook 如下界面,则证明是Ok的:
数据准备
首先,从 New York City Taxi Trip Duration 下载出租车的数据,解压,得到如下数据集:
接着进入 Byzer-Notebook 首页,通过 上传 功能上传这个文件:
上传后你应该可以在 Byzer-Notebook 的呈现的文件系统里看到你上传的文件:
这样,我们数据就准备好了。
接下来,我们会分成三个步骤:
- 特征/模型训练
- 特征部署和模型部署
- 端到端的预测能力
对应成三个 Notebook:
安装 Byzer-openmldb-3.0 插件
Byzer 和 OpenMLDB 通讯需要一个 Byzer 插件,可以在 Byzer-notebook 里直接执行一条指令来安装:
!plugin app add - "byzer-openmldb-3.0";
注: 如果是 sandbox 模式部署的 Byzer, 这个方式当前是失效的。
网速被限定 100k 以内,这个插件比较大,所以下载时间较长,大家耐心等待。
另外,在 Log Message 标签页会显示 下载进度信息。
特征/模型训练部分
第一步,加载我们的训练的 csv 文件看看:
load csv.`/tmp/upload/train.csv`
where header="true"
as taxi_csv_data;
执行后输出结果如下:
为了方便,我们把这个数据保存到数据湖里,然后再次从数据湖里加载成一张表,叫 taxi_tour_table_train_simple
save overwrite taxi_csv_data as delta.`public.taxi_tour_table_train_simple` ;
load delta.
public.taxi_tour_table_train_simple
as taxi_tour_table_train_simple;
这样我们的数据就通过 数据湖 管理起来了。数据湖具有版本管理等功能,速度也更快,相比 csv 文件。
但是 OpenMLDB 并不能直接访问数据湖,所以,我们还需要把数据导出一份到文件系统中,供 OpenMLDB 使用。
save overwrite taxi_tour_table_train_simple
as parquet./sample_data/data/taxi_tour_table_train_simple
;
保存完成后,你在侧面的文件系统里是可以看到的:
现在,我们需要让 OpenMLDB 把这个数据加载进去:
-- load the data to FeatureStore offline
-- /home/williamzhu/byzer-home/allwefantasy
run command as FeatureStoreExt. where zkAddress="192.168.3.14:7181" and `sql-0`=''' SET @@execute_mode='offline'; ''' and `sql-1`=''' SET @@job_timeout=20000000; ''' and `sql-2`=''' LOAD DATA INFILE '${HOME}/sample_data/data/taxi_tour_table_train_simple' INTO TABLE t1 options(format='parquet', header=true, mode='append'); ''' and db="demo_db" and action="ddl";</code></pre></div></div><p>点击执行后效果如下:</p><figure class=""><div class="rno-markdown-img-url" style="text-align:center"><div class="rno-markdown-img-url-inner" style="width:100%"><div style="width:100%"><img src="https://cdn.static.attains.cn/app/developer-bbs/upload/1723331392236092777.jpg" /></div></div></div></figure><blockquote><p>这里有点小遗憾, 我测试的 OpenMLDB 版本的最后输出是一个格式化的字符串,所以显示比较凌乱。</p></blockquote><p>值得注意的是,sql-2 是让 OpenMLDB 加载前面我们产生的文件,这里我们需要传递 <span>{HOME} 做前缀,因为Byzer 是多租户的引擎,目录是虚拟目录,这样不同用户的目录才不会覆盖。OpenMLDB 要访问 Byzer 的目录,需要添加 </span>{HOME} 这个前缀。</p><p>数据被加载到 OpenMLDB 后,现在就可以利用它计算特征,计算的特征我们会保存到 <code>/tmp/feature_data</code> 目录中供 Byzer 后续建模使用。</p><div class="rno-markdown-code"><div class="rno-markdown-code-toolbar"><div class="rno-markdown-code-toolbar-info"><div class="rno-markdown-code-toolbar-item is-type"><span class="is-m-hidden">代码语言:</span>javascript</div></div><div class="rno-markdown-code-toolbar-opt"><div class="rno-markdown-code-toolbar-copy"><i class="icon-copy"></i><span class="is-m-hidden">复制</span></div></div></div><div class="developer-code-block"><pre class="prism-token token line-numbers language-javascript"><code class="language-javascript" style="margin-left:0">-- compute feature with OpenMLDB run command as FeatureStoreExt.
where
zkAddress="192.168.3.14:7181"
and sql-0
='''
SET @@execute_mode='offline';
'''
and sql-1
='''
SET @@job_timeout=20000000;
'''
and sql-2
='''
SELECT trip_duration, passenger_count,
sum(pickup_latitude) OVER w AS vendor_sum_pl,
max(pickup_latitude) OVER w AS vendor_max_pl,
min(pickup_latitude) OVER w AS vendor_min_pl,
avg(pickup_latitude) OVER w AS vendor_avg_pl,
sum(pickup_latitude) OVER w2 AS pc_sum_pl,
max(pickup_latitude) OVER w2 AS pc_max_pl,
min(pickup_latitude) OVER w2 AS pc_min_pl,
avg(pickup_latitude) OVER w2 AS pc_avg_pl,
count(vendor_id) OVER w2 AS pc_cnt,
count(vendor_id) OVER w AS vendor_cnt
FROM t1
WINDOW w AS (PARTITION BY vendor_id ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW),
w2 AS (PARTITION BY passenger_count ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW) INTO OUTFILE '${HOME}/tmp/feature_data';
'''
and db="demo_db"
and action="ddl";
执行结果:
然后我们到 Byzer-Notebook 侧边的文件系统里,可以看到生成了对应的目录:
现在,我们可以用 Byzer 加载 OpenMLDB 产生的特征数据了:
load csv.
/tmp/feature_data
where
header="true"
and inferSchema="true"
as feature_data;
-- !desc feature_data;
执行效果如下:
对特征在做一些处理,比如类型转换之类的:
select *, cast(passenger_count as double) as passenger_count_d,
cast(pc_cnt as double) as pc_cnt_d,
cast(vendor_cnt as double) as vendor_cnt_d
from feature_data
as new_feature_data;
-- !desc new_feature_data;
还可以看看特征之间的关系(这是个可选步骤,这里需要用到 Byzer 可视化插件,用户感兴趣可以参考这篇文章:祝威廉:Byzer-yaml-visualiaztion 插件介绍 ):
select
passenger_count_d,
vendor_sum_pl,
vendor_max_pl,
vendor_min_pl,
vendor_avg_pl,
pc_sum_pl,
pc_max_pl,
pc_min_pl,
pc_avg_pl,
pc_cnt_d,
vendor_cnt
, trip_duration as label
from new_feature_data
as visual_data1;-- 每个 label 按比例抽样
run visual_data1 as RateSampler.`` where sampleRate="0.9,0.1"
as visual_data2;-- 获得 10% 的数据
select * from visual_data2 where split=1 as visual_data;
!visualize visual_data '''
runtime:
env: source /home/williamzhu/miniconda3/bin/activate ray-1.12.0
cache: false
control:
ignoreSort: true
fig:
scatter_matrix:
color: label
dimensions:
vv_type: code
vv_value: >-
["passenger_count_d","vendor_sum_pl","pc_sum_pl"]
''';
执行结果如下:
最后,我们来生成最后可以给算法直接用的数据:
select vec_dense(array(
passenger_count_d,
vendor_sum_pl,
vendor_max_pl,
vendor_min_pl,
vendor_avg_pl,
pc_sum_pl,
pc_max_pl,
pc_min_pl,
pc_avg_pl,
pc_cnt_d,
vendor_cnt
)) as features, cast(trip_duration as double) as label
from new_feature_data
as trainning_table;
执行结果如下:
接着我们开始训练模型,使用 线性回归 算法来训练:
train trainning_table as LinearRegression.
/model/tax-trip
where-- once set true,every time you run this script, MLSQL will generate new directory for you model
keepVersion="true"-- specify the test dataset which will be used to feed evaluator to generate some metrics e.g. F1, Accurate
and evaluateTable="trainning_table"
-- specify group 0 parameters
andfitParam.0.labelCol
="label"
andfitParam.0.featuresCol
="features"
andfitParam.0.maxIter
="30";
模型会被保存在 /model/tax-trip
目录里。
执行结果如下:
到此,我们模型训练部分结束。
特征部署和模型部署
既然是端到端,所以我们肯定需要把特征和模型代码都进行部署。部署也很简单。第一步部署特征工程:
-- deploy feature logical for online
run command as FeatureStoreExt. where zkAddress="192.168.3.14:7181" and `sql-0`=''' SET @@execute_mode='online'; ''' and `sql-1`=''' SET @@job_timeout=20000000; ''' and `sql-2`=''' DEPLOY demo SELECT trip_duration, passenger_count, sum(pickup_latitude) OVER w AS vendor_sum_pl, max(pickup_latitude) OVER w AS vendor_max_pl, min(pickup_latitude) OVER w AS vendor_min_pl, avg(pickup_latitude) OVER w AS vendor_avg_pl, sum(pickup_latitude) OVER w2 AS pc_sum_pl, max(pickup_latitude) OVER w2 AS pc_max_pl, min(pickup_latitude) OVER w2 AS pc_min_pl, avg(pickup_latitude) OVER w2 AS pc_avg_pl, count(vendor_id) OVER w2 AS pc_cnt, count(vendor_id) OVER w AS vendor_cnt FROM t1 WINDOW w AS (PARTITION BY vendor_id ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW), w2 AS (PARTITION BY passenger_count ORDER BY pickup_datetime ROWS_RANGE BETWEEN 1d PRECEDING AND CURRENT ROW); ''' and db="demo_db" and action="ddl";</code></pre></div></div><p>接着模拟一个线上实时数据,方便部署后的使用:</p><div class="rno-markdown-code"><div class="rno-markdown-code-toolbar"><div class="rno-markdown-code-toolbar-info"><div class="rno-markdown-code-toolbar-item is-type"><span class="is-m-hidden">代码语言:</span>javascript</div></div><div class="rno-markdown-code-toolbar-opt"><div class="rno-markdown-code-toolbar-copy"><i class="icon-copy"></i><span class="is-m-hidden">复制</span></div></div></div><div class="developer-code-block"><pre class="prism-token token line-numbers language-javascript"><code class="language-javascript" style="margin-left:0">-- mock online data run command as FeatureStoreExt.
where
zkAddress="192.168.3.14:7181"
and sql-0
='''
SET @@execute_mode='online';
'''
and sql-1
='''
SET @@job_timeout=20000000;
'''
and sql-2
='''
LOAD DATA INFILE '${HOME}/sample_data/data/taxi_tour_table_train_simple.csv'
INTO TABLE t1 options(format='csv', header=true, mode='append');
'''
and db="demo_db"
and action="ddl";
最后部署下我们的线性回归模型:
--%deployModel
--%url=http://192.168.3.14
register LinearRegression.
/model/tax-trip
as tax_trip_model_predict;
这些代码都在 tax_trip_deploy.bznb
文件里:
好了,现在我们来验证下我们部署的 API 服务。
API 预测
这里,我们可以用 Byzer 的 Shell 插件来使用 curl 来进行预测:
!sh curl -XPOST 'http://192.168.3.14/model/predict'
-d 'dataType=row&sql=select tax_trip_model_predict(vec_dense(slice(from_json(get_json_object(string(rest_request("http://192.168.3.14/dbs/demo_db/deployments/demo","POST", map("body","{"input":[["id0376262",1,1467302350000,1467304896000,2,-73.873093,40.774097,-73.926704,40.856739,"N",1]]}"),map("Content-Type" , "application/json"),map())),"$.data.data[0]"),"array<double>"),2,12))) as tax_duration&data=[{doc:[]}]';
执行结果:
随意给一条数据,就能预测出租车的时间了。
总结
通过整合 Byzer 和 OpenMLDB,我们不但能实现端到端的机器学习流程,同时还能完成实时特征工程,而且简单易用,未来前景不可限量。