• 功能介绍
  • 参数说明
  • 脚本示例
    • 脚本代码
    • 脚本运行结果

    功能介绍

    Tokenizer(标记器)是将文本(如句子)分解成单个词语(通常是单词)的过程。

    参数说明

    名称 中文名称 描述 类型 是否必须? 默认值
    selectedCol 选中的列名 计算列对应的列名 String
    outputCol 输出结果列 输出结果列列名,可选,默认null String null
    reservedCols 算法保留列名 算法保留列 String[] null

    脚本示例

    脚本代码

    1. data = np.array([
    2. [0, 'That is an English Book!'],
    3. [1, 'Do you like math?'],
    4. [2, 'Have a good day!']
    5. ])
    6. df = pd.DataFrame({"id": data[:, 0], "text": data[:, 1]})
    7. inOp1 = dataframeToOperator(df, schemaStr='id long, text string', op_type='batch')
    8. op = TokenizerBatchOp().setSelectedCol("text")
    9. print(BatchOperator.collectToDataframe(op.linkFrom(inOp1)))
    10. inOp2 = dataframeToOperator(df, schemaStr='id long, text string', op_type='stream')
    11. op = TokenizerStreamOp().setSelectedCol("text")
    12. op.linkFrom(inOp2).print()
    13. StreamOperator.execute()

    脚本运行结果

    1. id text
    2. 0 1 do you like math?
    3. 1 0 that is an english book!
    4. 2 2 have a good day!