我使用以下方法将一个n维数组缩放到0和1之间:
x_scaled = (x-np.amin(x))/(np.amax(x)-np.amin(x))
但是对于大型数据集来说,这种方法非常慢。我有成千上万个相对较大的数组需要处理。Python中是否有更快的方法来实现这一目标?
编辑:我的数组形状为(24,24,24,9)。对于scikit中的MinMax缩放器,输入数组必须具有一定的形状,而我的数组不符合要求,因此无法使用。文档中说明:
Parameters: X : array-like, shape [n_samples, n_features]
回答:
MadPhysicist的回答可以优化,以避免不必要的临时数据分配:
x -= x.min()
x /= x.ptp()
就地运算符(如+=
、-=
等)不会占用你的内存(因此磁盘交换发生的可能性较小)。当然,这会破坏你最初的x
,所以只有在你之后不需要x
时才可以使用这种方法…
此外,他提出的将多维数据拼接成更高维矩阵的想法,如果你有很多很多通道,是一个好主意,但同样需要测试这种大矩阵是否会导致磁盘交换,还是应该按顺序处理小矩阵。