Updating versions for Spark 1.0
authorPatrick Wendell <pwendell@gmail.com>
Mon, 21 Apr 2014 23:59:38 +0000 (16:59 -0700)
committerPatrick Wendell <pwendell@gmail.com>
Mon, 21 Apr 2014 23:59:38 +0000 (16:59 -0700)
docs/_config.yml
ec2/spark_ec2.py
project/SparkBuild.scala
project/project/SparkPluginBuild.scala
python/pyspark/shell.py
repl/src/main/scala/org/apache/spark/repl/SparkILoopInit.scala
yarn/alpha/pom.xml

index d585b8c..869dd57 100644 (file)
@@ -3,7 +3,7 @@ markdown: kramdown
 
 # These allow the documentation to be updated with nerw releases
 # of Spark, Scala, and Mesos.
-SPARK_VERSION: 1.0.0-SNAPSHOT
+SPARK_VERSION: 1.0.0
 SPARK_VERSION_SHORT: 1.0.0
 SCALA_BINARY_VERSION: "2.10"
 SCALA_VERSION: "2.10.4"
index 31209a6..9a53dce 100755 (executable)
@@ -70,7 +70,7 @@ def parse_args():
            "slaves across multiple (an additional $0.01/Gb for bandwidth" +
            "between zones applies)")
   parser.add_option("-a", "--ami", help="Amazon Machine Image ID to use")
-  parser.add_option("-v", "--spark-version", default="0.9.1",
+  parser.add_option("-v", "--spark-version", default="1.0.0",
       help="Version of Spark to use: 'X.Y.Z' or a specific git hash")
   parser.add_option("--spark-git-repo",
       default="https://github.com/apache/spark",
@@ -157,7 +157,8 @@ def is_active(instance):
 
 # Return correct versions of Spark and Shark, given the supplied Spark version
 def get_spark_shark_version(opts):
-  spark_shark_map = {"0.7.3": "0.7.1", "0.8.0": "0.8.0", "0.8.1": "0.8.1", "0.9.0": "0.9.0", "0.9.1": "0.9.1"}
+  spark_shark_map = {"0.7.3": "0.7.1", "0.8.0": "0.8.0", "0.8.1": "0.8.1", "0.9.0": "0.9.0", 
+    "0.9.1": "0.9.1", "1.0.0": "1.0.0"}
   version = opts.spark_version.replace("v", "")
   if version not in spark_shark_map:
     print >> stderr, "Don't know about Spark version: %s" % version
index 33f9d64..9ca6ccd 100644 (file)
@@ -30,7 +30,7 @@ import scala.collection.JavaConversions._
 // import com.jsuereth.pgp.sbtplugin.PgpKeys._
 
 object SparkBuild extends Build {
-  val SPARK_VERSION = "1.0.0-SNAPSHOT"
+  val SPARK_VERSION = "1.0.0"
 
   // Hadoop version to build against. For example, "1.0.4" for Apache releases, or
   // "2.0.0-mr1-cdh4.2.0" for Cloudera Hadoop. Note that these variables can be set
index 0142256..fb43ce7 100644 (file)
@@ -26,7 +26,7 @@ import sbt.Keys._
 object SparkPluginDef extends Build {
   lazy val root = Project("plugins", file(".")) dependsOn(sparkStyle)
   lazy val sparkStyle = Project("spark-style", file("spark-style"), settings = styleSettings)
-  val sparkVersion = "1.0.0-SNAPSHOT"
+  val sparkVersion = "1.0.0"
   // There is actually no need to publish this artifact.
   def styleSettings = Defaults.defaultSettings ++ Seq (
     name                 :=  "spark-style",
index d172d58..52df22d 100644 (file)
@@ -46,7 +46,7 @@ print("""Welcome to
       ____              __
      / __/__  ___ _____/ /__
     _\ \/ _ \/ _ `/ __/  '_/
-   /__ / .__/\_,_/_/ /_/\_\   version 1.0.0-SNAPSHOT
+   /__ / .__/\_,_/_/ /_/\_\   version 1.0.0
       /_/
 """)
 print("Using Python version %s (%s, %s)" % (
index 910b31d..31b0fa7 100644 (file)
@@ -26,7 +26,7 @@ trait SparkILoopInit {
       ____              __
      / __/__  ___ _____/ /__
     _\ \/ _ \/ _ `/ __/  '_/
-   /___/ .__/\_,_/_/ /_/\_\   version 1.0.0-SNAPSHOT
+   /___/ .__/\_,_/_/ /_/\_\   version 1.0.0
       /_/
 """)
     import Properties._
index d0aeace..c485963 100644 (file)
@@ -20,7 +20,7 @@
   <parent>
     <groupId>org.apache.spark</groupId>
     <artifactId>yarn-parent_2.10</artifactId>
-    <version>1.0.0-SNAPSHOT</version>
+    <version>1.0.0</version>
     <relativePath>../pom.xml</relativePath>
   </parent>