开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

spark写Flink CDC创建的iceberg table 报错吗?

spark写Flink CDC创建的iceberg table 报错吗? 报错信息:Exception in thread "main" org.apache.spark.sql.AnalysisException: Cannot write nullable values to non-null column 'uid'

展开
收起
真的很搞笑 2023-09-06 14:52:52 137 0
1 条回答
写回答
取消 提交回答
  • 报错信息提示无法将可空值写入非空列 'uid'。这个错误通常是由于数据中存在 null 值导致的,而目标表的 'uid' 列被定义为非空(non-null)。

    有几种可能的解决方法:

    检查 Flink CDC 同步的数据源:确保 Flink CDC 同步的数据源中不包含 null 值。可以通过查询源表或使用数据清洗方法来过滤或处理 null 值,以确保目标表中不会出现 null 值。

    调整目标表的定义:如果您确定目标表中的 'uid' 列需要容纳 null 值,可以修改表定义,将 'uid' 列的属性更改为可为空(nullable)。这样,Spark 就可以将 null 值写入该列。

    例如,在创建 Iceberg 表时,可以使用以下语句将 'uid' 列定义为可为空:

    ```import org.apache.iceberg.Column;
    import org.apache.iceberg.Table;
    import org.apache.iceberg.Schema;
    import org.apache.iceberg.catalog.Catalog;
    import org.apache.iceberg.spark.SparkCatalog;

    Catalog catalog = new SparkCatalog(sparkSession.sparkContext().getConf());
    Table table = catalog.createTable(
    new Schema(
    Column.of("uid", Types.LongType).nullable(),
    // 其他列定义
    ),
    ...
    );

    
    请根据实际表定义和需求进行相应的修改。
    
    在 Spark 写入数据之前进行数据转换:如果您无法更改表定义,但又需要写入包含 null 值的数据,可以在 Spark 写入数据之前对数据进行转换,将 null 值替换为非空的默认值或特定的占位符。然后,再将转换后的数据写入目标表。
    
    例如,可以使用 Spark 的 na().fill() 方法将 null 值替换为默认值:
    
    ```val transformedDF = originalDF.na.fill(Map("uid" -> defaultValue))
    transformedDF.write.format("iceberg").mode("append").save("path/to/table")
    

    以上是一些常见的解决方法,根据您的具体情况选择合适的方法进行处理。如果问题仍然存在,建议提供更多的代码和数据示例,以便更详细地分析和定位问题。

    2023-09-26 11:22:08
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载