Título: Extractor Web Publicado por: traviatØ en 12 Febrero 2009, 03:46 am Hola 1 salu2, :-( sucede que estaba buscando la forma de extraer o mejor dicho guardar las paginas de una pagina web, y bueno me preguntaba si alguien sabe x casualidad como hacer mas o menos para guardar todas las paginas, es decir me ahorraria la tarea de hacer click en cada link de dicha pagina para luego darle guardar como etc etc, entonces si quisiera hacerlo de alguna forma automatica como seria :huh: alguna idea :huh: , seria extraer a las paginas de la web limitandose a solo sus paginas internas, x ejemplo si dentro hay un link de otra web diferente bueno el link de esa web si no lo guardaria, y otra cosa es para guardar las paginas que estan dentro de las paginas y asi sucesivamente hasta guardar toda la web (una), no c si me explico, alguna idea :huh: :huh: :huh: salu2s
Título: Re: Extractor Web Publicado por: Rudy21 en 12 Febrero 2009, 03:58 am se me ocurre esto
primero meter el code de la pagina en un textbox ahi meter en una variable la URL de la web y en el txtbox hacer un mid y un instr con <a href=" para sacar los enlaces una vez sacados TODOS LOS ENLACES ya de ahi sacas los que empiecen con la variable de la URL de la web y todos los demas que no tenggan http (para sacar los de la misma web y los que son pagina2.php etc.. etc..) y despues eso meterlo en un txt o igual otro textbox y que automaticamente obtenga el code de esas URLS y las guarde en un archivo.html :D es lo que se me ocurre intenta hacer eso ya tienes todos los pasos si tienes mas dudas me dices y te ayudo a hacer el soft pero intenta hacerlo ok?? Salu2 Título: Re: Extractor Web Publicado por: traviatØ en 12 Febrero 2009, 04:21 am vale, gracias por responder, luego posteo avances salu2s ;)
|