sparksql向mysql登录数据时同时登入两个日期型字段报错?急等!!!!

__氺 发布于 2017/08/24 10:05
阅读 243
收藏 0

操作步骤如下:

1、从A表统计一部分数据,创建一个view

2、从view中检索字段并分组,插入到数据库中

3,2中我多插入了两个日期型字段:创建时间和更新时间

4,在本机执行,数据可以正常登录Mysql,在spark集群中登录报错Invalid default value for 'update_time'

5、将更新字段删除后,再在spark集群中执行可以正常登录mysql

急等!!!!!

错误信息:

java.sql.SQLSyntaxErrorException: Invalid default value for 'update_time'
    at com.mysql.cj.jdbc.exceptions.SQLError.createSQLException(SQLError.java:536)
    at com.mysql.cj.jdbc.exceptions.SQLError.createSQLException(SQLError.java:513)
    at com.mysql.cj.jdbc.exceptions.SQLExceptionsMapping.translateException(SQLExceptionsMapping.java:115)
    at com.mysql.cj.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:1983)
    at com.mysql.cj.jdbc.StatementImpl.executeUpdateInternal(StatementImpl.java:1603)
    at com.mysql.cj.jdbc.StatementImpl.executeLargeUpdate(StatementImpl.java:2632)
    at com.mysql.cj.jdbc.StatementImpl.executeUpdate(StatementImpl.java:1529)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$.createTable(JdbcUtils.scala:692)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:72)
    at org.apache.spark.sql.execution.datasources.DataSource.write(DataSource.scala:426)
    at org.apache.spark.sql.DataFrameWriter.save(DataFrameWriter.scala:215)
    at org.apache.spark.sql.DataFrameWriter.jdbc(DataFrameWriter.scala:446)
 

加载中
返回顶部
顶部