Мне трудно понять, как наиболее эффективно обрабатывать большие наборы данных / массивы в PowerShell.У меня есть массивы, которые содержат несколько миллионов элементов, которые мне нужно обработать и сгруппировать.Этот список всегда различается по размеру, то есть это может быть 3,5 миллиона единиц или 10 миллионов единиц.
Пример: 3,5 миллиона элементов, которые они группируют по «4», как показано ниже:
Элементы 0,1,2,3 Группировать вместе 4,5,6,7 Группировать вместе и так далее.
Я попытался обработать массив, используя один поток, просматривая список и назначая объекту pscustomobject, который работает, для его завершения требуется всего 45-50 + минут.
Я также пытался разбить массив на меньшие массивы, но это заставляет процесс работать еще дольше.
$i=0
$d_array = @()
$item_array # Large dataset
While ($i -lt $item_array.length){
$o = "Test"
$oo = "Test"
$n = $item_array[$i];$i++
$id = $item_array[$i];$i++
$ir = $item_array[$i];$i++
$cs = $item_array[$i];$i++
$items = [PSCustomObject]@{
'field1' = $o
'field2' = $oo
'field3' = $n
'field4' = $id
'field5' = $ir
'field6'= $cs
}
$d_array += $items
}
Я бы подумал, что если бы я применил планировщик заданий, который позволил бы мне запускать несколько заданий, значительно сократил бы время процесса, но я хотел, чтобы другие работали быстро и эффективно.чтобы справиться с этим.