Sie sind nicht angemeldet.

Anzeigen

**Wir werden in den kommenden Tagen einen Umzug auf einen neuen Server durchführen. Im Rahmen dieser Maßnahme wird das Forum ca. 1 Stunde nicht erreichbar sein.** nslu2-info.de ist ein privates Projekt von mir, welches jeden Monat aus eigener Tasche finanziert wird. Mit einer freiwilligen Spende wird der Erhalt und der weitere Ausbau dieses Forums unterstützt. Um mich beim Erhalt des Forums zu unterstützen, kannst Du entweder via Flattr oder Paypal spenden. Ich bedanke mich schon jetzt bei allen Unterstützern.

Lieber Besucher, herzlich willkommen bei: Die NSLU2 Community****wenns ums speichern und streamen geht****. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

06.10.2008, 16:39

Download mit Curl und Crontab

Hi@all
ich nutze meine Slug mit Unslung 6.8 als Downloadmaschine.
Ich habe nach Gargis Anleitung mit Curl mit Scrip und Crontab automatisierte Downloads angestossen. Es funktioniert auch allerdings habe ich folgendes Problem. Wenn ich den Job automatisiert über Crontab starte lädt Curl die Datei (4 Gb Größe)ins Hauptverzeichnis und lädt nur 3/4 der Datei. Wenn ich das Downloadscript von Hand starte lädt er die Datei ins Verzeichnis /root und die Datei ist vollständig.

Inhalt der Script Datei(down.sh):
#!/bin/sh
curl -C - -O http://cdimage.ubuntu.com/releases/hardy….1-dvd-i386.iso -silent

Inhalt der Crontab
SHELL=/bin/sh
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
HOME=/
# ---------- ---------- Default is Empty ---------- ---------- #
0 0-23/8 * * * root /usr/sbin/CheckDiskFull &>/dev/null
0 0 * * * root /usr/sbin/WatchDog &>/dev/null
1 * * * * root /usr/sbin/hwclock -s &>/dev/null
49 23 29 09 * root /usr/sbin/easy.sh &>/dev/null
30 03 * * * root /usr/sbin/backup.sh >/tmp/rsync.log
25 15 * * * root /usr/sbin/backup.sh >/tmp/rsync.log
58 19 * * * root /usr/sbin/backup.sh >/tmp/rsync.log
59 00 * * * root /usr/sbin/down.sh &>/dev/null
30 16 * * * root /usr/sbin/down2.sh &>/dev/null


Als Speichermedium an Port 2 habe ich einen USB Stick mit 8 Gb. Irgendwelche Größenbeschränkungen habe ich nicht eingestellt oder formatiert. Kann es sein das im Hauptverzeichnis zuwenig Platz für 4 Gb ist? Kann ich Curl dazu bringen ins /root oder ein anderes Verzeichnis den Download abzulegen?

Anzeigen

Phantomias2006

Fortgeschrittener

Beiträge: 309

Firmwareversion / your current Firmware: Unslung 6.10

  • Nachricht senden

2

06.10.2008, 19:39

AW: Download mit Curl und Crontab

Hi

Vielleicht hilft dir das weiter

-o/--output <file> Write output to <file> instead of stdout. If you are using {} or [] to fetch multiple documents, you can use '#' followed by a number in the <file> specifier. That variable will be replaced with the current string for the URL being fetched. Like in:
curl http://{one,two}.site.com -o "file_#1.txt"
or use several variables like:
curl http://{site,host}.host[1-5].com -o "#1_#2"
You may use this option as many times as the number of URLs you have.
See also the --create-dirs option to create the local directories dynamically.
-O/--remote-name
Write output to a local file named like the remote file we get. (Only the file part of the remote file is used, the path is cut off.)
The remote file name to use for saving is extracted from the given URL, nothing else.
You may use this option as many times as the number of URLs you have.





mfg

Anzeigen

Social Bookmarks