/ Forside / Teknologi / Udvikling / PHP / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
PHP
#NavnPoint
rfh 3959
natmaden 3372
poul_from 3310
funbreak 2700
stone47 2230
Jin2k 1960
Angband 1743
Bjerner 1249
refi 1185
10  Interkril.. 1146
Backup af website.
Fra : Ukendt


Dato : 08-01-08 19:34

Hejsa NG.

Jeg har efterhånden brugt en del timer på at lede efter et
php-backup-script, som vil være i stand til at tage en backup at mine
mange filer på min hjemmeside.

Scriptet skulle gerne kunne:
#1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
(ikke nødvendigvis en pakket fil, men bare EN fil)
#2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2 GB)
og gemme dem lokalt på serveren/FTP-server.
#3- skulle gerne ku køre en form for cyklus, således at den ikke "timer ud"

Er der nogen som kender til et script, som er i stand til dette?

FTP har været min hidtidige løsning, men det tager et ondt år, når den
skal hente mange små filer selvom jeg har 10Mbit internet!

Mine filer ligger hos servage.net, hvor det (stadig) ikke er muligt at
gennemføre et stort download via http -> Derfor #2.
(Test evt selv her: http://brafi.dk/testfil2.123 Filen er på 2 GB)

Hilsen Jacob

 
 
Martin (08-01-2008)
Kommentar
Fra : Martin


Dato : 08-01-08 22:35

Jacob Fich wrote:
> Hejsa NG.
>
> Jeg har efterhånden brugt en del timer på at lede efter et
> php-backup-script, som vil være i stand til at tage en backup at mine
> mange filer på min hjemmeside.
>
> Scriptet skulle gerne kunne:
> #1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
> (ikke nødvendigvis en pakket fil, men bare EN fil)
> #2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2 GB)
> og gemme dem lokalt på serveren/FTP-server.
> #3- skulle gerne ku køre en form for cyklus, således at den ikke "timer ud"
>

#4
Servage WebDrive ?

>
> Hilsen Jacob

Ukendt (09-01-2008)
Kommentar
Fra : Ukendt


Dato : 09-01-08 15:18

Det er stadig "FTP" det bruges i deres WebDrive => Samme langsomlighed
ved små filer...

Men tak for dit bud. Andre? :D

Martin skrev:
> Jacob Fich wrote:
>> Hejsa NG.
>>
>> Jeg har efterhånden brugt en del timer på at lede efter et
>> php-backup-script, som vil være i stand til at tage en backup at mine
>> mange filer på min hjemmeside.
>>
>> Scriptet skulle gerne kunne:
>> #1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
>> (ikke nødvendigvis en pakket fil, men bare EN fil)
>> #2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2 GB)
>> og gemme dem lokalt på serveren/FTP-server.
>> #3- skulle gerne ku køre en form for cyklus, således at den ikke
>> "timer ud"
>>
>
> #4
> Servage WebDrive ?
>
>>
>> Hilsen Jacob

t.vang (13-01-2008)
Kommentar
Fra : t.vang


Dato : 13-01-08 19:27

Jacob Fich wrote:
> Det er stadig "FTP" det bruges i deres WebDrive => Samme langsomlighed
> ved små filer...
>
> Men tak for dit bud. Andre? :D
>
> Martin skrev:
>> Jacob Fich wrote:
>>> Hejsa NG.
>>>
>>> Jeg har efterhånden brugt en del timer på at lede efter et
>>> php-backup-script, som vil være i stand til at tage en backup at mine
>>> mange filer på min hjemmeside.
>>>
>>> Scriptet skulle gerne kunne:
>>> #1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
>>> (ikke nødvendigvis en pakket fil, men bare EN fil)
>>> #2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2
>>> GB) og gemme dem lokalt på serveren/FTP-server.
>>> #3- skulle gerne ku køre en form for cyklus, således at den ikke
>>> "timer ud"
>>>
>>
>> #4
>> Servage WebDrive ?
>>
>>>
>>> Hilsen Jacob

Find ftp software der ser på filernes karakteristika (størrelse, sidste
ændring osv.), og kun henter de filer der er ændret.

Kan hurtigt anbefale WS FTP - Har en "backup" feature, som vidst nok går
begge veje (op og ned) - Bruger selv at uploade mit backup, så har ikke
lige set om programmet kan den anden vej - Men mon ikke?

t.vang

Michael Guldhammer (14-01-2008)
Kommentar
Fra : Michael Guldhammer


Dato : 14-01-08 20:36

"Jacob Fich" <jacob-du_ved_nok-brafi.dk> skrev i en meddelelse
news:4783c20f$0$90270$14726298@news.sunsite.dk...
> Hejsa NG.
>
> Jeg har efterhånden brugt en del timer på at lede efter et
> php-backup-script, som vil være i stand til at tage en backup at mine
> mange filer på min hjemmeside.
>
> Scriptet skulle gerne kunne:
> #1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
> (ikke nødvendigvis en pakket fil, men bare EN fil)
> #2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2 GB) og
> gemme dem lokalt på serveren/FTP-server.
> #3- skulle gerne ku køre en form for cyklus, således at den ikke "timer
> ud"
>
> Er der nogen som kender til et script, som er i stand til dette?
>
> FTP har været min hidtidige løsning, men det tager et ondt år, når den
> skal hente mange små filer selvom jeg har 10Mbit internet!
>
> Mine filer ligger hos servage.net, hvor det (stadig) ikke er muligt at
> gennemføre et stort download via http -> Derfor #2.
> (Test evt selv her: http://brafi.dk/testfil2.123 Filen er på 2 GB)
>
> Hilsen Jacob


Hej Jacob.

Kan du bruge dette:

backup.sh

#!/bin/bash
#
# gøre klar til backup af etc
tar -czvf /backup/etc.tgz /etc
tar -czvf /backup/home.tgz /home
tar -czvf /backup/data.tgz /data
tar -czvf /backup/www.tgz /www
#
#
#backup resultat
echo backup lykkes

i dette tilfælde tager scriptet backup af "home" "etc" og "www" og lægger
dem i "backup"

Jeg bruger det på min linuxboks hvor det ligger i cron.weekly

Mvh
Michael Guldhammer



Ukendt (14-01-2008)
Kommentar
Fra : Ukendt


Dato : 14-01-08 22:32

Hejsa.

Det vil jeg lige teste en gang.

Tak for det.

/Jacob

Michael Guldhammer skrev:
> "Jacob Fich" <jacob-du_ved_nok-brafi.dk> skrev i en meddelelse
> news:4783c20f$0$90270$14726298@news.sunsite.dk...
>> Hejsa NG.
>>
>> Jeg har efterhånden brugt en del timer på at lede efter et
>> php-backup-script, som vil være i stand til at tage en backup at mine
>> mange filer på min hjemmeside.
>>
>> Scriptet skulle gerne kunne:
>> #1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
>> (ikke nødvendigvis en pakket fil, men bare EN fil)
>> #2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2 GB) og
>> gemme dem lokalt på serveren/FTP-server.
>> #3- skulle gerne ku køre en form for cyklus, således at den ikke "timer
>> ud"
>>
>> Er der nogen som kender til et script, som er i stand til dette?
>>
>> FTP har været min hidtidige løsning, men det tager et ondt år, når den
>> skal hente mange små filer selvom jeg har 10Mbit internet!
>>
>> Mine filer ligger hos servage.net, hvor det (stadig) ikke er muligt at
>> gennemføre et stort download via http -> Derfor #2.
>> (Test evt selv her: http://brafi.dk/testfil2.123 Filen er på 2 GB)
>>
>> Hilsen Jacob
>
>
> Hej Jacob.
>
> Kan du bruge dette:
>
> backup.sh
>
> #!/bin/bash
> #
> # gøre klar til backup af etc
> tar -czvf /backup/etc.tgz /etc
> tar -czvf /backup/home.tgz /home
> tar -czvf /backup/data.tgz /data
> tar -czvf /backup/www.tgz /www
> #
> #
> #backup resultat
> echo backup lykkes
>
> i dette tilfælde tager scriptet backup af "home" "etc" og "www" og lægger
> dem i "backup"
>
> Jeg bruger det på min linuxboks hvor det ligger i cron.weekly
>
> Mvh
> Michael Guldhammer
>
>

Søg
Reklame
Statistik
Spørgsmål : 177558
Tips : 31968
Nyheder : 719565
Indlæg : 6408924
Brugere : 218888

Månedens bedste
Årets bedste
Sidste års bedste