scala 选择排序

简介: object selectSortApp { def main(args: Array[String]): Unit = { val list: ListBuffer[Int] = ListBuffer(...
object selectSortApp {

  def main(args: Array[String]): Unit = {



    val list: ListBuffer[Int] = ListBuffer(1, 2, 3, 10, 100, 19999, -1998, 9, 234, 234, 9, 43)



    val res: ListBuffer[Int] = Sec_Sort[Int](_<_)(list)
    println(res.mkString(","))

  }

  /**
    * 选择排序,每次选择一个最小的值
    * @param list
    * @return
    */
  def SelectSort(list: ListBuffer[Int]): ListBuffer[Int] = {
    var minIndex = 0
    var temp = 0

    for(i<- 0 until(list.size)){
      minIndex = i
      for(j <- i+1 until(list.size)){
        if(list(j)< list(minIndex)){
          minIndex  = j
        }
      }
      temp = list(i)
      list(i) = list(minIndex)
      list(minIndex) = temp
    }
    list
  }


  /**
    *假定第一数据为有序区域,其余为无序区域。每一趟从无需区域找到对应的最大/最小, 然后和有序区域交换,直到最后序列变成一个有序区域。
    * 属于不稳定排序
    * 
    * @param comparator
    * @param lists
    * @tparam T
    * @return
    */
  def Sec_Sort[T](comparator:(T,T)=>Boolean)(lists:ListBuffer[T]):ListBuffer[T]={

    for(i<-0 until lists.length){
      var min=lists(i)               //定义最小的
      var index=i;                    // 最小的索引
      for(j<-i+1 until lists.length){
        if(comparator(lists(j), min)){
          min=lists(j)               //每一趟找到最小的值和对应的索引
          index=j
        }
      }
      //替换最小值
      if(index!=i){
        var temp =lists(i)
        lists(i) = lists(index)
        lists(index) = temp
      }

    }
    lists                           //最后一行返回排好的序列
  }
}
相关文章
|
SQL 消息中间件 分布式计算
如何查看spark与hadoop、kafka、Scala、flume、hive等兼容版本【适用于任何版本】
如何查看spark与hadoop、kafka、Scala、flume、hive等兼容版本【适用于任何版本】
919 0
如何查看spark与hadoop、kafka、Scala、flume、hive等兼容版本【适用于任何版本】
|
3月前
|
分布式计算 资源调度 Java
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
37 0
|
3月前
|
分布式计算 Hadoop Scala
Scala +Spark+Hadoop+Zookeeper+IDEA实现WordCount单词计数(简单实例-上)
Scala +Spark+Hadoop+Zookeeper+IDEA实现WordCount单词计数(简单实例-上)
35 0
|
4月前
|
SQL 存储 分布式计算
在scala中使用spark
在scala中使用spark
230 0
|
4月前
|
分布式计算 Java Scala
spark 与 scala 的对应版本查看、在idea中maven版本不要选择17,弄了好久,换成11就可以啦
spark 与 scala 的对应版本查看、.在idea中maven版本不要选择17,弄了好久,换成11就可以啦
307 2
|
4月前
|
分布式计算 Java Scala
Spark编程语言选择:Scala、Java和Python
Spark编程语言选择:Scala、Java和Python
Spark编程语言选择:Scala、Java和Python
|
4月前
|
分布式计算 数据处理 Scala
Spark 集群和 Scala 编程语言的关系
Spark 集群和 Scala 编程语言的关系
|
存储 分布式计算 Scala
Spark-RDD 键值对的操作(Scala版)
Spark-RDD 键值对的操作(Scala版)
|
SQL 存储 JSON
人人都懂Spark-SQL基础操作(Scala版)
人人都懂Spark-SQL基础操作(Scala版)