因為要打得太多了我想說還是再問一篇好了
我試過http://goo.gl/soE8XA這篇的方法
可是出現錯誤訊息如下
Loading required package: tcltk
Error in .local(conn, name, value, ...) :
RS_sqlite_import: data1.dat line 2 expected 2 columns of data but found 3
然後我google了這個錯誤
https://groups.google.com/forum/#!topic/sqldf/1VWgp9WJLr4
這篇有講到14年11月已經修改這個問題了
所以我不知道這樣是發生什麼事了
我還蠻想學會這招的
然後我還想問有關bigmemory跟ff跑起來的速度會比較慢嗎
謝謝
※ 引述《jklkj (誠實可靠小郎君)》之銘言:
: 標題: [問題] 記憶體不足
: 時間: Wed Jun 1 15:53:04 2016
:
:
: [問題類型]:
: 程式諮詢(我想用R 做某件事情,但是我不知道要怎麼用R 寫出來)
: 效能諮詢(我想讓R 跑更快)
:
: [軟體熟悉度]:
: 入門(寫過其他程式,只是對語法不熟悉)
:
: [問題敘述]:
: 目前我要把大概幾千萬筆的資料(目前只跑到2000多萬筆)放進R去,
: 應該會有兩三個dataframe,每個dataframe都有數千萬筆
: 打算把R當作資料庫,不管是join或是一些資料的整理
: 我把資料一直rbind下去,超過兩千多萬筆之後就會出現記憶體不足的問題
: 想請問這樣的問題除了直接加記憶體以外(因為是公司的電腦)
: 有別的方法嗎?
: [程式範例]:
: 程式範例就是很簡單的
: sale <- rbind(sale1, sale)
: 錯誤訊息如下
: error: cannot allocate vector of size 256.0 mb
: 我有找到一些解決的方法是加ram(其實我也很想加到32G)、用64bit(感覺我已經在用了)
: 想請問一下有別的解決方法嗎?
:
: [環境敘述]:
: R version 3.3.0 (2016-05-03)