1,新建工程
file–>new project 如下图,然后输入工程名,确定
idea1

2,引入spark jar包依赖
准备好:spark jar包,我集群版本是:spark-assembly-1.6.1-hadoop2.0.0-mr1-cdh4.2.0.jar
选中工程,快捷键ctrl+shift+alt+s 或者 file–>project structure
在弹出的对话框左侧选中 Libraries,然后在中间点绿色的+号,选择spark jar所在的位置即可

3,编写代码
new package & new scala class

4,引入Maven
选中工程,右键 选择 add Frameworks Support ,选择Maven (前提是本地已经安装有maven并设置maven环境)

5,打包
选中工程 快捷键ctrl+alt+shift+s 或者 file–>project structure ,在弹出的对话框中选择Artifacts
点击绿色的+号,选择jar –> from Module with dependencies , 在output layout 把spark assembly jar删掉,不然打出来的依赖包会上百兆,同时选中build on make, 确定后 菜单栏点击 Build –> Make Project 就能打出你需要的jar包了
ideal2

6,提交job执行
把打好的jar包上传到部署有spark client的服务器,./bin/spark-submit spark_test.jar就能提交运行了