sparkstreaming去消费kafka的数据然后写入phoenix中?

知行合一1 发布于 2018/11/23 11:05
阅读 126
收藏 0

大神们  请问一下 sparkstreaming去消费kafka的数据然后写入phoenix中,采用的是druid连接池,但是一直报java.lang.NegativeArraySizeException这个错误,说我有一个长度为负数的数组产生

加载中
返回顶部
顶部