Есть ли обходной путь для ошибок "Превышен лимит размера файла" при использовании db_dump185

Кто-нибудь когда-нибудь пытался обновить старую базу данных Беркли, которую нужно сбрасывать через db_dump185?

Когда я пытаюсь сбросить базу данных, содержащую комментарии с веб-сайта, следующим образом:

$ bash-3.2$ db_dump185 -f comment.dump comment.db 

Я получаю эту ошибку:

File size limit exceeded (core dumped)

Есть ли способ избежать этого?


Вот выход из ulimit -a:

$ulimit -a

core file size          (blocks, -c) 200000
data seg size           (kbytes, -d) 200000
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 32743
max locked memory       (kbytes, -l) 32
max memory size         (kbytes, -m) 200000
open files                      (-n) 100
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 20
virtual memory          (kbytes, -v) 200000
file locks                      (-x) unlimited

И это база данных:

$ ls -l comment.db 
-rwxr-xr-x 1 daiello staff 184393728 Jan 12 2012 comment.db

Я хочу убедиться, что этот вопрос получит ответ. Что @Alan предложил db_dump185 comment.db | cat > comment.dump действительно помог. Продолжение с дампом в конечном итоге потребляет всю доступную реальную память и большую часть подкачки.

Таким образом, мы переместили файлы базы данных на больший сервер и впоследствии столкнулись с ужасной db_dump185: seq: invalid argument ошибка. Я не верю, что db_dump185 имеет функцию восстановления, но я еще не выполнил все исследования, которые хочу провести.

0 ответов

Другие вопросы по тегам