SparkSQL查询指定日期范围内数据的问题?

陈祖煌 发布于 2015/12/07 11:54
阅读 910
收藏 0

有一个mysql数据库表data_table,包含start_date和end_date字段,类型为varchar(10),这两个字段表示该条数据在这个日期范围内有效。示例数据如下:

id    start_date    end_date

1    2015-12-01    2015-12-31

2    2015-12-01    2015-12-10

3    2015-11-20    2015-11-30

比如我要查12-07日有效的数据,在mysql中执行语句


select * from data_table where start_date<='2015-12-07' and end_date>='2015-12-07'


可以查找到id为1、2的这两条数据,可是在SparkSQL中却查找不出来。

但是SparkSQL执行下面这个语句可以查找出数据:


select * from data_table where end_time>='2015-12-07'

而下面这条


select * from data_table where start_time<='2015-12-07'


SQL语句却查不出来数据。


这是因为SparkSQL不支持使用<=来做日期判断?

加载中
返回顶部
顶部