yeah! ademas lo bueno de sed es que utiliza "expresiones regulares", que son posiblemente uno de los estandares de parsing y manipulacion de texto mas potentes que se ha creado.
al ser estandar, luego este conocimiento te sirve en javascript y en muchos otros sitios.
Esta bien saber esto. En esto caso no es lo que quería hacer pero en otra ocasión puede que me resulte muy útil. Apuntado.
sabes que hay programas que devuelven su salida llena de onjuntos irregulares de espacios, en lugar de un tabulador o un espacio? pues eso es un asco para parsearlo. si intentas aplicar CUT directamente ahi, tienes un lio impresionante.
por tanto si haces
te comprime los espacios repetidos en un solo espacio. Y eso ya lo puedes parsear con CUT en un script, sin problemas.
ejemplo:
alex@mugetsu:~$ ifconfig eth0 | grep Link
eth0 Link encap:Ethernet HWaddr 88:ae:1d:78:34:93
alex@mugetsu:~$ ifconfig eth0 | grep Link | tr -s " "
eth0 Link encap:Ethernet HWaddr 88:ae:1d:78:34:93
al segundo flujo de texto le puedes extraer la mac sin problemas con un simple cut:
alex@mugetsu:~$ ifconfig eth0 | grep Link | tr -s " " | cut -d" " -f 5
88:ae:1d:78:34:93
intenta hacer eso sin pasar por TR, y verás que no hay manera.
Lo mismo con
que te transforma todo a minusculas y asi no cometes errores tontos al comparar variables ni evaluar entradas del usuario.
]Bueno, y ya que estamos, ¿que recolector de datos, crawler o araña me aconsejáis? Lo que quiero hacer es extraer el texto plano de webs y guardarlo en un txt. Que sea completico, que analice listados de webs, los hipervinculos,... y esas cosas.
pidelo en un tema aparte porque es interesante y conviene dejar buena constancia del tema!