[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [shell-script] Mais uma thred! rs!
From: |
Fernando Luizao |
Subject: |
Re: [shell-script] Mais uma thred! rs! |
Date: |
Fri, 13 Feb 2009 13:21:42 -0800 (PST) |
Nesse caso, como a url é sempre a mesma e só muda a extensão, é mais fácil usar
wget:
wget -r -A .zip,.gz -np http://www.linuxfocus.org/common/src2/article350/
--- Em sex, 13/2/09, Ivan lopes <address@hidden> escreveu:
De: Ivan lopes <address@hidden>
Assunto: [shell-script] Mais uma thred! rs!
Para: "shell-script" <address@hidden>
Data: Sexta-feira, 13 de Fevereiro de 2009, 17:57
*Problema*:
O usuario de uma maquina linux navegava pela internet, quando leu um artigo
muito bom.
Todavia a pagina disponibiliza uma serie de arquivos, no formato zip e gz,
para o usuario
baixar e estudar em casa.
Como baixar todos os arquivos zipados da pagina sem precisar clicar link por
link e nem
baixar o proprio sitio da web.????
** A pagina em questao eh essa: *
http://www.linuxfoc us.org/English/ October2004/ article350. shtml*
*Solucao do cara so software proprietario: * rsrsrsrsr! [brincadeirinha! ]
Vou baixar o super plus virus dowloader, feito na linguagem C$$$_sharp! ...
opa esse soh roda co o W$ V$ *Service Pack 1.00001*
*Solucao proposta pelos caras que leram o livro do Julio Neves* ... e nao
curtem software proprietario!
1- Hum!
Existe um padrao: termina com `gz$' OU termina com `zip$' ... logo eh um
grupo ()... facil
*'/(zip|gz)$ /*
2 - Eh bom listar os links da pagina: para tanto basta usar `lynx', com as
seguintes opcoes
-dump - imprime na tela
-listonly - somente links presentes na pagina ...
3 - moleza awk neles.
URL='http://www.linuxfoc us.org/English/ October2004/ article350. shtml'
$ lynx -dump -listonly $URL | awk '/(zip|gz)$/ { print "wget " $2}'
4- para transformara um texto em acao! sh nele! rsrsrs
$ lynx -dump -listonly $URL | awk '/(zip|gz)$/ { print "wget " $2}'| sh
!!Atencao!!
Apesar de ser uma solucao comum a todos, eh interessante notar que o awk une
as opcoes de determinar
uma expressao regular e a escolha do campo que serah impresso. **NO caso
campo 2**
*** Amigos, me disseram que o curl faz isso numa linha tb ... vcs conhecem
como eh isso???
[]'s
Abracao! :)
Ivan!
[As partes desta mensagem que não continham texto foram removidas]
Veja quais são os assuntos do momento no Yahoo! +Buscados
http://br.maisbuscados.yahoo.com
[As partes desta mensagem que não continham texto foram removidas]
- Mais uma thred! rs!, Ivan lopes, 2009/02/13
- Re: [shell-script] Mais uma thred! rs!,
Fernando Luizao <=