推广 热搜: page  数据  小红  红书  考试  论文  数据分析  关键词  哪些  搜索 

快速排序优化:一步一步优化,将快速排序的性能提升5倍

   日期:2024-12-20     移动:https://sicmodule.kub2b.com/mobile/quote/9182.html

众所周知,在排序上应用最广泛的便是快速排序。虽然快速排序的最坏时间复杂度能达到O(n^2),但在实际使用中可以用各种技巧把最坏情况优化掉,使算法在各种情况的排序中令时间复杂度接近O(nlogn)。
本文将通过各种常用的快排优化技巧,一步一步优化朴素快速排序算法。由于篇幅有限,本文只用随机数数组做测试,对于有序数组、逆序数组和含有大量重复元素的数组的优化,本文不表。

这是测试函数,通过在测试函数中生成随机数数组并对数组进行排序、计算排序时间。

 
 

首先我们实现一个最朴素的快速排序算法,一个不含任何添加剂,纯洁无暇的快速排序算法。

 

测试结果

数组大小my sort/mssort/ms100001010000077100000097791000000010559381000000001189610599

可以看到,虽然不及stl的sort快,但至少是在一个量级。

众所周知,用来排序的数组经常会出现有序片段。对随机数数组而言,当数组大小越小时,出现有序数组的概率越大。又有两个前提:一,对有序数组进行排序是无意义,浪费时间的;二,检查数组是否有序时间复杂度很低,只需要O(n)。基于这两个前提,我们可以在快速排序算法的每个递归子数组排序前进行有序性检查,无序时才进行排序操作。

 

测试结果

数组大小my sort/mssort/ms100001010000097100000091801000000010579411000000001174410652

性能并没有质的提升,因为测试用的是随机数数组,出现有序子数组的概率极小,所以这个优化对这种情况毫无意义。但在实践中,由于大部分数组经常出现有序片段(甚至整个数组都是有序的,所以这个优化提升极大。

众所周知,快速排序算法的具体时间复杂度取决于递归时数组的分割比例。比如说,如果我们在每个递归中都能将数组分成均等的两份,那么算法的时间复杂度将是最佳的O(nlogn);而如果我们在每个递归中都倒霉地把数组分成大小1和大小n-1这样的两份,快速排序就退化成了递归版的冒泡排序,时间复杂度为O(n^2)。

而数组的分割比例取决于我们选择的基准。基准的选择主要有固定选择法,比如只选第一个元素或最后一个元素(上面的算法就是只选第一个元素;随机选择法,即从数组中随机选一个元素作为基准,这个方法对随机数数组毫无意义,对相对有序的数组有提升但不是最佳提升;三数取中法,即取三个元素(一般是第一个、最后一个和中间的元素)的中间值,实践中这个方法对各种数组的适应性都很好,所以这里给安排一下。

 

测试结果

数组大小my sort/mssort/ms10000101000007610000008279100000009279131000000001040310552

有些许提升,已经很接近stl的sort了。由于测试的是随机数数组,所以三数取中法提升效果不明显,但能有这样肉眼可见的提升还是很出乎我意料的。

接下来我们要用猥琐一点的方法来超越stl的sort----即快速排序和直接插入排序的结合。众所周知,元素数量较小的数组对快速排序是不友好的,此时快速排序仍然在开栈递归、选基准、分数组…,而这么辛苦仅仅是为了给那区区几个破元素排序,太不划算了。所以我们要把快速排序递归末端的小数组换成花销比较小的排序算法,避免递归开栈等花销。传统做法是用直接插入排序,虽然其时间复杂度为O(n^2),但用在小数组上还是可以接受的。

至于这个小数组得多小,测试一下就知道了

小数组大小1e7大小数组排序用时/ms2977497589371688932841648091288252568685121028

我不知道这个参数是否硬件无关,反正在我电脑上是64最佳。

 

测试结果

数组大小my sort/mssort/ms1000011100000661000000717710000000853902100000000959710395

性能提升明显,并一举超越stl的sort(虽然只有一丁点)。

事实上,传统的快速排序优化还有各种奇技淫巧,如聚集重复元素、尾递归优化(上面的代码编译器一般会自动做尾递归优化)等。但这些都是小提升,早就满足不了我了,接下来…

这个算是开挂了吧,拿多核运算去和单核运算的std::sort做比较…

快速排序用的是分治思想,用基准把数组分为两个子数组去排序,两个子数组又分别分成两个孙数组…我们可以发现,两个子数组的排序操作是独立的、互不影响的,这给了我们多线程优化的机会。简单说,就是分开的两个子数组分别用单独的线程去排序,子数组分成的孙数组也分别用单独的线程去排序…当cpu有多个核心时,算法的性能将有成倍的提升。

值得注意的是,数组的分裂是呈指数爆炸的,即1生2,2生4,4生balabala…如果不加限制,线程数量会直接突破操作系统极限,虽然这个极限可以修改,但线程远远超过cpu核心数的话,不但没有额外加速,还要浪费时间资源去开辟线程。

至于线程数限制多少最合适,测试一下就知道了

递归深度1e7大小数组排序用时/ms17182502328642135222617471978238922010209112581236113601141271151703162854

这里的递归深度表示如果未超过这个递归深度,则无脑给子数组的排序开辟线程,如果超过,就不开辟线程了。

测试数据抖动非常大。当可开辟线程的递归深度设为4~10时算法性能最佳。但由于不能保证快速排序递归时子数组的划分每次都是均等的,所以这里取10,因为开辟线程越多,每个线程排序的子数组出现大数组的概率越小,排序的时间越稳定,不易抖动。

我猜这个参数是硬件相关的,跟cpu核心数有关。但我手头上只有一台电脑,难以验证。不过这里可开辟线程递归深度设为10,即数组够大的话,最多会开辟1024个线程,这个数量至少对大部分cpu的利用率都是极高的。

 

测试结果

数组大小my sort/mssort/ms100001301000002171000000317910000000210916100000000230310451

算法的性能已经有了质的飞跃。

但还有一个小瑕疵,数组太小时依然很消耗时间。通过std::sort的对比可以知道,对这个大小的数组进行排序,哪怕是单核排序,也能在瞬间完成,而我的算法却花了数十毫秒。可以肯定的是,这些时间都消耗在了线程开辟和初始化上,因为之前没用多线程时没用这种情况。

因此,当多线程开辟及初始化的性能损耗超过了用多线程带来的性能提升时,用多线程是不必要的。所以对于小数组就没必要用多线程了。至于这个小数组得多小,经过测试,对小于10000的子数组的排序选择不开辟新线程时性能最佳。

此时只要把

 

改成

 

测试结果

数组大小my sort/mssort/ms1000011100000571000000238110000000184937100000000229010806

完美,收工

本文地址:https://sicmodule.kub2b.com/quote/9182.html     企库往 https://sicmodule.kub2b.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号