Tuve que dejar el pc encendido toda la noche para que se renderizaran todos los frames (600), después tuve un pequeño problemilla, y era que no podia juntarlos todos sin perder la calidad de estos, pero al final supe como solucionarlo, juntando todos los frames con VirtualDub usando el codec de compression XviD MPEG-4... y aqui esta, opinen! el proyecto está hecho en Blender por lo tanto le puedo añadir cosas, modificarlo cambiandole la textura y cosas asi, no sé! diganmelo ustedes XD es la intro que usaré en mis proximos video-tutoriales de informática.
Hola a todos! tengo un problema con un script que encontré por ahi, y es el siguiente, bueno primero os contare el problema, resulta que estoy creando un blog (blogger de google) y es este: http://youdivx.blogspot.com.es (no hay ninguna intención de hacer spam) , el search box esta en la esquina superior izquierda, intentad buscar alguna peli (alguna de la lista de la primera entrada, Oblivion por ejemplo), (tengo puesto que solo se vea 1 entrada por pagina (y hay una entrada principal, la que contiene la lista entera de las pelis)) entonces el problema esta en cuando busco "algo" este me saca la entrada (que estan ahi.. lo saca por el nombre de la misma) y lo que yo quisiera hacer es, que al hacer una busqueda (de alguna peli, puro texto) usando hipervinculo de texto, con esto quiero decir, supongamos que estoy buscando mm.. Objeivo La Casa Blanca, despues de darle a enter quisiera que este me lleve directamente a la entrada (sin bajar, ya que la lista principal se ira alargando..)
lo encontré por ahi, y la verdad no tengo muchos conocimientos en este campo (me dedico mas a software), y pues la razon del por que he creado un post tan h3x0r es por que estuve buscando medio dia y no encontre la solucion.. en definitiva lo que quisiera hacer es añadirle un hipervinculo de texto dinamico.. nose si me explico, bueno de todas formas doy gracias por anticipado! perdon por la gramática, por que no soy español (soy de ucrania) entonces puede que mi texto contenga muchos fallos, pero da =...
Habéis leído correctamente, el dueño o administrador de una web de enlaces contenidos protegidos por derechos de autor podría ser condenado a una pena de hasta seis años de prisión. Así queda reflejado en la reforma del Código Penal en la que el gobierno lleva trabajando durante los últimos meses y que podría entrar en vigor en la primavera de 2014.
Todo indica que el proyecto de reforma se aprobará mañana, posteriormente tendrá que ser refrendado durante el Consejo de Ministros para acabar en el parlamento, donde podrá sufrir algunas modificaciones.
Cuando sea finalmente aprobada, el hecho de enlazar a contenido protegido por derechos de autor, pasará a ser un delito penado con hasta seis años de prisión, la retirada de los contenidos y, en algunos casos concretos, el bloqueo de la página web. La pena mínima para este mismo delito sería de seis meses de prisión. Como la condena sería inferior a un año no sería necesario el ingreso en un centro penitenciario, siempre que el acusado no tenga antecedentes.
De momento solo se ha optado por perseguir a los “prestadores del servicio” y no a los usuarios, como ocurre en otros países como por ejemplo Francia con su modelo de los tres avisos.
Bajo este contexto, cualquier buscador de Internet cumpliría las condiciones para ser denunciado, por este motivo se ha matizado un poco. Para que un administrador pueda ser acusado debe demostrarse que no se limita a realizar un “tratamiento meramente técnico o automático de los datos facilitados por terceros”, sino que hay cierto grado de supervisión. Gracias a este matiz, los buscadores quedarían excluidos ya que el indexado de los datos se hace automáticamente.
Por otro lado también se avisa de que solo podrán ser perseguidas penalmente si los responsables del sitio web colaboran con la vulneración de los derechos de autor “de forma significativa”. Para saber cuándo se hace hace de dicha forma se tendrá en cuenta el éxito de la página en España y la cantidad de obras no autorizadas.
Durante años los jueces han liberado por sistema a los administradores de este tipo de sitios porque entendían que actuaban como meros intermediarios y no eran responsables de la subida del material protegido, sin embargo, desde la aprobación de la Ley Sinde han conseguido, poco a poco, cambiar ese punto de vista para poder culparles.
Personalmente lo veo muy claro, la industria continúa anclada en el pasado y no quiere ver que los tiempos han cambiado. La única manera efectiva de minimizar la piratería es ofrecer una alternativa legal atractiva. Sin embargo, es mucho más fácil quejarse a las autoridades o como se suele decir, el que no llora no mama.
La Motion Picture Association of America ha publicado un estudio en el que vuelve a destacar la relevancia que Google tiene en la descarga de contenidos protegidos por los derechos de autor. En el estudio de la MPAA el 82% de los enlaces a los que se llegaba y que infringen los derechos de autor provenían de búsquedas en Google.
Este nuevo intento para que Google reaccione, aun cuando la empresa ya ha mostrado sus intenciones de no eliminar ninguno de estos enlaces de los resultados de las búsquedas. Eric Schmidt ya lo dejó claro en julio de este mismo año, y aunque de momento Google no se ha pronunciado sobre el nuevo estudio, es de suponer que no hayan cambiado de parecer.
Google ya incidió en el tema el mes pasado con un estudio propio titulado “Cómo Google lucha contra la piratería” (”How Google fights piracy“, PDF en inglés) en el que una d elas conclusiones era según ellos que “las búsquedas no son uno de los principales conductores a sitios con contenidos piratas“. Google también aclaraba cómo trataba esos resultados:
La buena noticia es que las búsquedas más populares relacionadas con películas, música, libros, juegos de ordenador y otros trabajos con derechos de autor devuelven resultados que no incluyen enlaces a materiales que violan dichos derechos. Esto es gracias a nuestras mejoras continuas de los algoritmos en los que se basa Google Search.
Sin embargo la MPAA no parece satisfecha con ese esfuerzo de Google, e indica que los cambios al algoritmo de búsquedas no han reducido la piratería. Google anunció en agosto de 2012 que había realizado modificaciones para reducir el ranking de sitios que recibían multitud de peticiones de baja de sitios web por parte de los propietarios de los derechos de autor, y aún así, en la MPAA afirman que no hay “evidencias” de que haya habido una reducción en la piratería.
Cuando Ben Affleck fue contratado para el papel de Batman en la secuela de “El Hombre de Acero”, todos los fans de la saga enloquecieron porque no querían verle a él encarnando a un superhéroe. No obstante, la indignación está lejos de terminarse, porque Justin Bieber podría tener el papel de Robin.
Por otro lado, también existe la posibilidad de que el cantante se burle de nosotros.
Hace unas horas, Justin publicó la foto de arriba en Instagram, que incluye un guión de la película con marca de agua “Bieber”, y trae el hashtag “#Robin ??”.
En otras palabras, el cantante dice a sus fans que podría hacer una audición o que incluso podría haber sido escogido para encarnar al compañero de Batman.
Todo esto podría ser una simple farsa, pero hay varias cosas que no apoyan esta teoría.
En primer lugar, ¿por qué recibiría Bieber el guión de una de las películas más esperadas de los próximos años si no tiene nada que ver con ella?
En segundo lugar, Bieber no suele mentir a sus fans, al menos no en las redes sociales, que ahora mismo suponen la mayor plataforma de promoción.
Sobra decir, los que tienen en cuenta estos dos aspectos ya les están pidiendo a Zack Snyder y a Warner Bros que echen a Bieber ya mismo.
Representantes de la industria cinematográfica y musical no se rendirán hasta que no consigan hundir el Pirate Bay, pero sus esfuerzos parecen ser en vano mientras Google no compruebe cada uno de los enlaces que le son enviados en los avisos de infracción de copyright.
Según TorrentFreak, la industria no logró convencer a Google para eliminar la página principal de Pirate Bay de los resultados de búsqueda.
Una solicitud presentada recientemente por el grupo musical BPI, que contenía más de 2.000 enlaces supuestamente ilegales, también incluyó la página principal de Pirate Bay.
Google ha ignorado nuevamente la petición. BPI afirma en su aviso que thepiratebay.sx infringe los derechos de “la música”, lo que no es una acusación demasiado específica.
Hasta nuevo aviso, Google seguirá protegiendo el sitio web de estas demandas, ya que la página principal no puede considerarse responsable de la violación de derechos de autor, al igual que la mayoría de los sitios web que proporcionan enlaces a diferentes contenidos, incluyendo sus motores de búsqueda.
Desde el momento en que empezó el escándalo de los programas de espionaje de la NSA se ha sabido que la agencia de inteligencia estadounidense utiliza ciertas palabras que son detectadas por sus sistemas automatizados para empezar a interceptar tus comunicaciones o al menos para llamar la atención sobre tus actividades.
Esto ha llevado a varias campañas para trolear a la NSA que animaron a la gente a utilizar palabras “prohibidas” en correos electrónicos, otras comunicaciones, búsquedas y más.
La idea era enloquecer a los sistemas de la NSA para obstaculizarle a la agencia averiguar cuál es una amenaza real y cuál no.
En ese sentido, el portal “Summon the NSA” (Convoca a la NSA) utiliza la misma lista de palabras desencadenantes para hacer una búsqueda de Google, con la esperanza de llamar al FBI a tu casa, al menos si vives en Estados Unidos.
Así que si buscas una forma rápida de ponerte en contacto con las autoridades federales o con las agencias de espionaje estadounidenses, este portal web es para ti.
Titulo: Hacking gubernamental: La NSA y el CGHQ descifran protocolos seguros para espiarlo todo en Internet
Las agencias de ingeligencia de los Estados Unidos y del Reino Unido han logrado romper varios de los sistemas de cifrado presentes en muchas de las comunicaciones actuales. Los datos, publicados por The Guardian, The New York Times y ProPublica, se han extraído de nuevo de los documentos filtrados por Edward Snowden. La NSA y el llamado Government Communications HeadQuarters del Reino Unido pusieron hace tiempo en marcha un programa clasificado llamado Bullrun que hace uso de “supercomputadoras, trucos técnicos, órdenes judiciales y persuasión en segundo plano“ para romper todas las barreras de la privacidad en Internet, incluyendo sistemas que se consideraban especialmente seguros como las VPN o los protocolos SSL (Secure Sockets Layer) y TLS (Transport Layer Security).
En The New York Times indican por ejemplo que “durante la última década, la NSA ha dirigido un agresivo esfuerzo múltiple para romper tecnologías ampliamente utilizadas en el cifrado en Internet“.
¿La gota que colma el vaso?
Este nuevo descubrimiento es un capítulo más del escándalo de los sistemas de seguimiento, monitorización y espionaje que la NSA —y como ahora se ha descubierto, otros gobiernos— llevan utilizando desde hace años.
Pero esos esfuerzos por traspasar las barreras del cifrado y de los protocolos seguros son aún más inquietantes, ya que como indica en The Guardian Bruce Schneier, uno de los mayores expertos en ciberseguridad del mundo:
La criptografía forma la base de la confianza online. Al minar deliberadamente esa seguridad online en un esfuerzo erróneo para interceptar comunicaciones, la NSA está minando el propio tejido con el que se construye Internet.
La NSA se gasta 250 millones de dólares al año para romper esos cifrados, y en 2010 lograron que “vastas cantidades“ de datos recolectados a través de las monitorizaciones que realizaban en Internet fueran “explotables“.
El Reino Unido, absolutamente implicado
Por su parte, el GCHQ se ha encargado de descubrir los sistemas de cifrado de tráfico que se usan en cuatro de los grandes proveedores de servicio de correo electrónico y mensajería: Hotmail, Google (Gmail), Yahoo! Mail y Facebook.
Por supuesto, las agencias gubernamentales siguen defendiendo sus actividades y argumentando que este tipo de esfuerzos son claves para luchar contra el terrorismo y para recolectar datos de inteligencia de gobiernos exteriores. Entre las técnicas utilizadas está una especialmente preocupante: la NSA logró influir en los estándares internacionales en los que se basan los sistemas de cifrado. En los documentos secretos descubiertos se confirma que la agencia trabajó de forma encubierta para introducir cambios en el borrador de un estándar de seguridad publicado por el Instituto Nacional de Tecnología y Estándares de los EE.UU. que se aprobó para su uso global en 2006. No obstante, parece que no han conseguido romper todos los sistemas de cifrado, algo que el propio Snowden confirmaba en una entrevista con The Guardian en junio:
El cifrado funciona. Los sistemas de cifrado fuerte debidamente implementados son una de las pocas cosas en las que uno puede confiar.
En el GCHQ también se tomaron este tipo de trabajo muy en serio, y de hecho llevaban tiempo con el programa Tempora en marcha, un sistema que interceptaba el tráfico en los cables de fibra óptica de las grandes corporaciones de telecomunicaciones. El cifrado, indican los documentos, hacía peligrar su acceso a la información.
Para luchar contra este problema pusieron en marcha el programa Edgehill, análogo de Bullrun, cuyo objetivo inicial era descifrar el tráfico de 3 grandes empresas de Internet (no se sabe cuáles) y de 30 tipos de redes privadas virtuales (VPN). Para 2015, la idea era poder haber descubierto los códigos de cifrado usados en 15 grandes empresas de Internet y de 300 VPN.
Titulo:Los internautas tienen más miedo de los hackers y anunciantes que de ser espiados.
Durante los últimos tres meses los medios de todo el mundo han hablado sobre los programas de espionaje de la NSA y su impacto en nuestra privacidad en línea.
Sin embargo, a pesar de todos los informes y todas las revelaciones realizadas hasta ahora, los internautas parecen tener otras prioridades.
Un estudio del Pew Research Center indica que aproximadamente el 86% de los usuarios de internet de Estados Unidos tratan de ocultar sus rastros digitales a través de diferentes maneras, incluyendo la limpieza de las cookies y del historial de internet, la eliminación y la edición de publicaciones del pasado o la desactivación de las cookies.
Pero la mayoría de estas medidas no se toman para evitar el espionaje gubernamental, sino para evitar los hackers y ciberdelincuentes. El 33% de los individuos que reconocieron haber tomado medidas para evitar ser rastreados en línea lo han hecho por temor a los hackers y delincuentes, mientras que un 28% lo hizo para evitar a los anunciantes.
Otro 19% de usuarios dijo haber tomado medidas de seguridad para evitar a los amigos y personas del pasado, mientras que el miedo a las críticas impulsó a otro 17% de usuarios a ocultar sus actividades.
Sólo el 5% teme al Gobierno y un 4% a las agencias federales.
Desde hace tiempo se habla de las posibilidades que tiene la impresión 3D para ser utilizada en el espacio, pues permitiría crear respuestos o, incluso, comida. Pero ahora la NASA ha ido un paso más allá y está probando la utilización de impresoras 3D para construir piezas de cohetes. Por el momento son sólo eso, pruebas, pero la agencia está contenta con los resultados.
Obviamente, la impresión 3D que utiliza la NASA no es la misma que se ve en los productos comerciales que cada vez son más comunes. En lugar de ello, el Centro de Vuelo Espacial de Huntsville experimenta con una técnica llamada sinterizado metálico láser directo (DMLS), que transforma polvos metálicos en piezas sólidas.
En concreto, la pieza que se ha impreso mediante DMLS es un inyector de combustible, que también se utiliza para introducir el oxidante en la cámara de combustión del cohete. En sus pruebas han logrado que este componente proporcione suficiente fuel y oxígeno como para producir 20.000 libras (unas 10 toneladas) de propulsión, informa Ars Technica. Esto supone unos 89 kilonewtons, algo más de lo que consigue un F-15 a máxima potencia.
De todos modos, la pieza construida mediante impresión 3D por la NASA es algo diferente a la original, ya que es un único elemento, en vez de los 28 componentes que forman la original, aunque fue diseñada para funcionar del mismo modo. La superficie también es algo menos lisa, pero son cambios que se pueden corregir en el diseño, así que las imperfecciones de cada pieza no deberían suponer un problema.
Esto hace que Greg Barnett, ingeniero jefe de propulsión del proyecto, esté satisfecho con los resultados. La pieza impresa es igual que la original, al menos en lo que a rendimiento se refiere. Y, por supuesto, a nivel de costes es muy superior, ya que permite un gran ahorro en dinero y en tiempo. Ambos aspectos son claves en una economía preocupada por el ahorro. Pero todavía queda mucho camino por delante antes de que se convierta en una realidad en la construcción de cohetes o naves. Por ahora el siguiente paso es probar a imprimir un componente con más elementos.