Я сделал тест для сравнения строковых операций на нескольких языках, чтобы выбрать язык для серверного приложения. Результаты казались нормальными, пока я наконец не попробовал C ++, что меня очень удивило. Поэтому мне интересно, пропустил ли я какую-либо оптимизацию и пришел сюда за помощью.
В основном это тесты с интенсивными строковыми операциями, включая конкатенацию и поиск. Тест проводится на Ubuntu 11.10 amd64 с версией GCC 4.6.1. Это Dell Optiplex 960 с 4G RAM и четырехъядерным процессором.
в Python (2.7.2):
def test():
x = ""
limit = 102 * 1024
while len(x) < limit:
x += "X"
if x.find("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) > 0:
print("Oh my god, this is impossible!")
print("x's length is : %d" % len(x))
test()
что дает результат:
x's length is : 104448
real 0m8.799s
user 0m8.769s
sys 0m0.008s
в Java (OpenJDK-7):
public class test {
public static void main(String[] args) {
int x = 0;
int limit = 102 * 1024;
String s="";
for (; s.length() < limit;) {
s += "X";
if (s.indexOf("ABCDEFGHIJKLMNOPQRSTUVWXYZ") > 0)
System.out.printf("Find!\n");
}
System.out.printf("x's length = %d\n", s.length());
}
}
что дает результат:
x's length = 104448
real 0m50.436s
user 0m50.431s
sys 0m0.488s
в Javascript (Nodejs 0.6.3)
function test()
{
var x = "";
var limit = 102 * 1024;
while (x.length < limit) {
x += "X";
if (x.indexOf("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) > 0)
console.log("OK");
}
console.log("x's length = " + x.length);
}();
, который дает результат:
x's length = 104448
real 0m3.115s
user 0m3.084s
sys 0m0.048s
в C ++ (g ++ -Ofast)
Не удивительно, что Nodejs работает лучше, чем Python или Java. Но я ожидал, что libstdc ++ даст гораздо лучшую производительность, чем Nodejs, чей результат меня действительно удивил.
#include <iostream>
#include <string>
using namespace std;
void test()
{
int x = 0;
int limit = 102 * 1024;
string s("");
for (; s.size() < limit;) {
s += "X";
if (s.find("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) != string::npos)
cout << "Find!" << endl;
}
cout << "x's length = " << s.size() << endl;
}
int main()
{
test();
}
что дает результат:
x length = 104448
real 0m5.905s
user 0m5.900s
sys 0m0.000s
Краткое резюме
ОК, теперь посмотрим на резюме:
- JavaScript на Nodejs (V8): 3,1 с
- Python на CPython 2.7.2: 8,8 с
- C ++ с libstdc ++: 5,9 с
- Java в OpenJDK 7: 50,4 с
Удивительно! Я пробовал "-O2, -O3" в C ++, но помогла заметка. C ++, кажется, только на 50% производительности JavaScript в V8, и даже хуже, чем CPython. Может ли кто-нибудь объяснить мне, если я пропустил некоторую оптимизацию в GCC или это просто так? Большое спасибо.