QQ: 380800878, 微信: kittenll
一、下到驱动
官网载mysql的java驱动包放到spark根目录。启动:
SPARK_CLASSPATH=mysql-connector-java-x.x.x-bin.jar ./bin/spark-shell
二、连接mysql
val df = sqlContext.load("jdbc", Map("url" -> "jdbc:mysql://localhost:3306/newlaw?user=root&password=", "dbtable" -> "tax"))
df.count()
这里得到的df是一个DataFrame对象,可以通过这个对象选取表数据,map, reduce等等操作。