我在try 使用数据.表来加速 Big Data 的处理.由几个较小的合并数据组成的帧(300k x 60).框架.我不熟悉数据.桌子目前的代码如下
library(data.table)
a = data.table(index=1:5,a=rnorm(5,10),b=rnorm(5,10),z=rnorm(5,10))
b = data.table(index=6:10,a=rnorm(5,10),b=rnorm(5,10),c=rnorm(5,10),d=rnorm(5,10))
dt = merge(a,b,by=intersect(names(a),names(b)),all=T)
dt$category = sample(letters[1:3],10,replace=T)
我想知道是否有比下面更有效的方法来总结数据.
summ = dt[i=T,j=list(a=sum(a,na.rm=T),b=sum(b,na.rm=T),c=sum(c,na.rm=T),
d=sum(d,na.rm=T),z=sum(z,na.rm=T)),by=category]
我真的不想手工输入所有50列的计算结果,而eval(paste(...))
列似乎有点笨重.
我看了一下下面的例子,但对于我的需求来说似乎有点复杂.谢谢