elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: Únete al Grupo Steam elhacker.NET


  Mostrar Mensajes
Páginas: 1 ... 4044 4045 4046 4047 4048 4049 4050 4051 4052 4053 4054 4055 4056 4057 4058 [4059] 4060 4061 4062 4063 4064 4065 4066 4067 4068 4069 4070 4071 4072 4073 4074 ... 4614
40581  Foros Generales / Noticias / Las Fuerzas Aéreas aseguran que el virus de los drones fue una 'simple molestia' en: 14 Octubre 2011, 03:03 am
 El virus informático que afectó a los aviones militares no tripulados (drones) de Estados Unidos en la base de Creech, Nevada, ha sido una "simple molestia" según la Fuerza Aérea de EEUU.

 Según la revista Wired, citando fuentes anónimas, hace unas dos semanas un virus informático entró en los sistemas que controlan este tipo de aviones. El 'malware' fue detectado en los ordenadores de la base de Creech, según explicó el Comando Especial de las Fuerzas Aéreas.

 También han comentado que "este tipo de 'malware' es común y ha sido más una molestia que una amenaza para el funcionamiento de los equipos, y puede ser aislado". Parece que el virus afectó a las cabinas de los aviones tipo Predator y Reaper, pero no causó ningún problema en las misiones de control remoto de estos aparatos.

 Se cree que la 'contaminación' vino a través de los discos utilizados para la actualización de los mapas topográficos. Los drones suelen ser utilizados por los militares de EEUU y la CIA para controles militares y bombardeos en lugares como Pakistán o Yemen.

FUENTE :http://www.elmundo.es/elmundo/2011/10/13/navegante/1318501640.html

Relacionado : https://foro.elhacker.net/noticias/un_virus_se_infiltra_en_la_red_de_aviones_teledirigidos_de_estados_unidos-t341208.0.html;msg1671611;topicseen#msg1671611
40582  Foros Generales / Noticias / Ubuntu 11.10 Oneiric Ocelot ya está en el mercado en: 13 Octubre 2011, 21:07 pm
Publicado el 13 de octubre de 2011 por Jaime Domenech

La versión final de Ubuntu 11.10, que emplea el kernel 3.0, ha salido hoy de forma oficial y ofrece importantes mejoras, destacando las que afectan a la interfaz de usuario Unity.

Lo cierto es que desde la implantación de la interfaz Unity en Ubuntu 11.04 muchos usuarios se quejaron de que tenía algunas carencias que debían corregirse y por esta razón los desarrolladores han tratado de perfeccionarla.

En ese sentido, Unity es más robusta y la compatibilidad con 2D está garantizada, de forma que aquellos usuarios con gráficas de menor calidad puedan usar la interfaz sin problemas.

Una de las novedades en el diseño de Unity está en el debut de un nuevo panel dedicado a la búsqueda y reproducción de música y que se integra con Banshee, el programa elegido por defecto para escuchar canciones.

Asimismo, los menus de la esquina superior derecha se han reordenado para que a los usuarios les sea más fácil manejarse con ellos.

Eso si, aquellos que no gusten de Unity para el escritorio podrán optar por GNOME 3.2, KDE 4.7.1 o bien Xfce 4.8.

En el apartado del cliente de correo electrónico se sigue confiando en Thuderbird, tal y como os informamos el pasado agosto, y como gestor de acceso al escritorio se prescinde de Gnome Display Manager (GDM), que ha sido reemplazado por LightDM.

Por otra parte, el cliente Gwibber para la gestión de redes sociales ha mejorado su rendimiento y modernizado su diseño.

En el aspecto del software también destaca la inclusión en los repositorios de Adobe Flash 11 en su versión de 64-bit, así como la de GCV 4.6.1 y X.org 7.6.

Para el formato de archivos del sistema por defecto se vuelve a confiar en Ext4, pero también se podrá seleccionar Btrfs, aunque en caso de optar por este último será necesario hacer una partición de arranque separada.

En el Software Center se estrena la función OneConf, gracias a la cual se podrá sincronizar con otros ordenadores la lista de paquetes instalados y algunos apartados de su configuración.

Los usuarios que lo deseen pueden descargarse ya la versión oficial de Ubuntu 11.10 en el siguiente enlace.

vINQulos

Ars Technica, h-online

FUENTE :http://www.theinquirer.es/2011/10/13/ubuntu-11-10-oneiric-ocelot-ya-esta-en-el-mercado.html
40583  Foros Generales / Noticias / Punto y final a los problemas de conexión con Blackberry en: 13 Octubre 2011, 20:56 pm
Después de cuatro días de incidencias continuas, el servicio de Internet de Blackberry ha quedado restablecido al completo. Así lo ha anunciado el codirector general de Research in Motion (RIM), Mike Lazaridis, quien ha pedido disculpas a los afectados por el fallo técnico.

La comparecencia de Lazaridis se ha producido en un esperado comunicado de prensa junto a Jim Balsillie, el otro director general de la compañía canadiense. Ambos reconocieron los fallos y entonaron el mea culpa ante los asistentes, pidiendo perdón a los usuarios afectados. "Éste es el mayor fracaso de la historia de Blackberry", reconocieron tras el problema que ha afectado a varias regiones como Europa, Oriente Medio y África.

Aunque no se especificó cuántos usuarios en concreto se habían visto afectados por el problema se admitió que había sido una situación "lamentable". Lo que no explicaron fue el motivo del fallo y se limitaron a afirmar que se experimentó "una degradación en la infraestructura" en las citadas regiones. "Trabajamos mucho para asegurar que el problema no se extendiese a la infraestructura global", aseguraron.

Sin cifra exacta de usuarios afectados

España ha sido uno de los países afectados, aunque el director general de RIM en nuestro país, Eduardo Fernández, no concretó el número de afectados ya que se han centrado en "volver a dar servicio cuanto antes". Sin citar cantidades ni plazos, Fernández aseguró que su compañía se encuentra en conversaciones con los operadores para llegar a un acuerdo que sirva para compensar a los usuarios. Recordemos que éstos amenazaban con emprender acciones contra RIM ante el temor de las primeras denuncias.

Precisamente la primera denuncia tanto contra RIM como contra Movistar ha llegado en el día de hoy. El abogado y usuario del conocido smartphone Ramón Arnó aseguró que reclamaría la compensación por pequeña que fuese (FACUA señala que la máxima compensación rondará el euro y medio). No obstante, si las empresas que trabajan con estos terminales pueden justificar pérdidas por el fallo también sería posible que se les recompensase económicamente.

Por último, señalar que desde la cuenta oficial en Twitter de la compañía en España se sugiere a los afectados que en caso de persistencia de los problemas prueben a apagar el terminal, quitarle la batería y volver a encenderlo.

FUENTE :http://www.adslzone.net/article7060-punto-y-final-a-los-problemas-de-conexion-con-blackberry.html
40584  Foros Generales / Noticias / Un algoritmo computacional aclara la autoría de los textos bíblicos en: 13 Octubre 2011, 20:37 pm
La tradición señala como único autor de los cinco primeros librosde la Biblia o Pentateuco al patriarca hebreo Moisés. Sin embargo, los estudiosos han afirmado que estos libros fueron redactados en realidad por diversas fuentes. Un nuevo algoritmo computacional desarrollado por investigadores de varias universidades de Israel y que posibilita el reconocimiento de indicios lingüísticos, como la preferencia por ciertas palabras o la diferencia en la elección de sinónimos, permitirá dividir estos textos en diferentes grupos de autoría posibles.


Por Yaiza Martínez de Tendencias Científicas.

La Toráh es el nombre con el que se designan los cinco primeros libros de la Biblia o, para los cristianos, el Pentateuco.

Aunque en bibliografía cristiana suele denominarse ley mosaica, ley de Moisés o ley escrita de Moisés porque, según la tradición, el Pentateuco fue escrito sólo por Moisés, en el pasado los especialistas han proporcionado evidencias de que estos libros fueron en realidad obra de múltiples autores, al igual que otros libros de la Biblia hebrea y del Nuevo Testamento.

Sin embargo, hasta la fecha, establecer esta diversidad de fuentes había supuesto una laboriosa tarea. Ahora, nuevas investigaciones realizadas por expertos de la Escuela de Ciencias Computacionales Blavatnik, de la Universidad de Tel Aviv (TAU) en Israel, han dado lugar al desarrollo de un algoritmo que podría ayudar a desvelar dichas fuentes.

Buscando en las "palabras vacías"

Los desarrolladores de dicho algoritmo han sido el profesor de la TAU, Nachum Dershowitz, y sus colaboradores, el estudioso de la Biblia Idan Dershowitz, de la Universidad Hebrea de Jerusalén, y los especialistas Moshe Koppel y Navot Akiva, de la Universidad Bar-Ilan, publica American Friends Tel Aviv University en un comunicado.

Según los investigadores, el algoritmo computacional desarrollado reconoce indicios lingüísticos -como la preferencia por ciertas palabras o la diferencia en la elección de sinónimos- que permiten dividir los textos en diferentes grupos de autoría posibles.

Centrándose sólo en el estilo de la escritura, en lugar de en la materia o en el género, Dershowitz y sus colaboradores soslayaron diversos obstáculos metodológicos que entorpecían el estudio de estos textos: los análisis basados en el contenido entrañaban una potencial falta de objetividad, y la diversidad de géneros presentes en la Biblia (poesía, narrativa, leyes y parábolas) representaban múltiples complicaciones.


Dershowitz señala que el software creado busca y compara detalles que los estudiosos difícilmente detectarían, como la frecuencia en el uso de verbos auxiliares, preposiciones o conjunciones (las denominadas palabras vacías ).

Estos detalles tienen un efecto pequeño en el significado del texto, pero en su uso cada autor o fuente presenta un estilo propio que permite identificarlo.

Exactitud casi total

Para probar la validez de su método, los científicos mezclaron aleatoriamente pasajes de dos libros del Antiguo Testamento, el de Jeremías y el de Ezequiel, y le pidieron al ordenador que los separase.

Mediante la búsqueda y la categorización de los capítulos en función de las preferencias en el uso de sinónimos (palabras que tienen un significado similar o idéntico entre sí y pertenecen a la misma categoría gramatical), así como en la elección de palabras comunes, el programa informático fue capaz de separar ambos pasajes con una exactitud del 99%.

El software también pudo distinguir entre materiales "sacerdotales" (aquéllos referidos a temas religiosos, como los rituales) y materiales "no-sacerdotales".

Aunque el algoritmo aún no está en un estadio lo suficientemente avanzado como para proporcionar un número probable de autores implicados en la escritura de cada uno de los libros de la Biblia, Dershowitz afirma que ya podría ayudar a identificar los puntos de transición en el interior de cada texto, es decir, el momento en que cambió el autor de cada uno de ellos.

Otros textos enigmáticos

El software desarrollado por el profesor Dershowitz y sus colaboradores se enmarcaría en un nuevo terreno de investigación bautizado como "humanidades digitales".

Dentro de este sector, desarrollado para conocer mejor las fuentes históricas, ya se han creado otros programas informáticos destinados a ayudar a atribuir textos anónimos a autores conocidos, mediante el reconocimiento de su estilo, por ejemplo.

En el caso del estudio de La Biblia con estas nuevas herramientas, el desafío es mayor, dado que no existen trabajos atribuidos con los que comparar los textos bíblicos.

Por otro lado, los científicos creen que el algoritmo desarrollado para la Torá podría proporcionar información sobre otros textos enigmáticos, como los contenidos en numerosos tratados de origen desconocido y que han ido apareciendo a lo largo de la historia.

Las pruebas realizadas hasta ahora con el software han aparecido detalladas en Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics.

FUENTE :http://www.laflecha.net/canales/curiosidades/noticias/un-algoritmo-computacional-aclara-la-autoria-de-los-textos-biblicos
40585  Foros Generales / Noticias / Apple y Samsung continúan perjudicándonos en: 13 Octubre 2011, 20:34 pm
artículo de Daniel Piñas publicado el 13 de octubre de 2011

A estas alturas, todos conocemos perfectamente la historia y guerra de patentes que están teniendo grandes fabricantes como Apple, Samsung, y en menor medida LG. Y si bien creíamos que el asunto se había calmado mínimamente algo, nos equivocamos… y de sobremanera.

Hoy nos hemos despertado con la noticia de que Apple ha conseguido una nueva prohibición que no permitirá a Samsung vender sus tablets en Australia. A priori puede sonar algo insignificante para nosotros, pero desde luego, no lo es. Todos estos ataques y bloqueos de patentes se corresponden con un mismo patrón: perjudicar al usuario final. Somos nosotros los más perjudicados, no los grandes fabricantes. ¿Deberíamos permitir esto?

El hecho de ir más allá con prohibiciones, intentos de bloqueos de ventas y en general todo lo que no apoya a una libre progresión del mercado, se traduce a su vez en una competencia mucho menor de lo esperado. Las multinacionales no progresan tecnológicamente de cara al usuario como deberían, y el resultado son productos recién estrenados que ya parecen anticuados. Véase, por ejemplo, el iPhone 4S.

Dicho esto, ¿no crees que estos bloqueos de patentes deberían ser inexistentes? La libre competencia mejoraría en todos los aspectos, y esto, por supuesto, finalizaría en un gran beneficio para los usuarios y clientes de estas empresas. Productos más avanzados, desarrollo sin limitaciones, y en general un libre mercado que todos queremos.

FUENTE :http://www.ethek.com/apple-y-samsung-continuan-perjudicandonos/
40586  Foros Generales / Noticias / Un ingeniero de Google califica de “fracaso” a Google+ en: 13 Octubre 2011, 20:30 pm
Publicado el 13 de octubre de 2011 por Helga Yagüe

Google es uno de los mayores gigantes de la red y debe estar acostumbrado a recibir críticas por todos lados pero en esta ocasión el enemigo está en casa ya que ha sido un ingeniero del proyecto Google+ en encargado de echar por tierra a la red social.

El susodicho es Steve Yegge, miembro del equipo de desarrollo de Google+, que ha calificado a la red social como “una idea patética de último momento”para rivalizar con Facebook.

El empleado de Google escribió estas reflexiones para compartirlas de forme interna con sus compañeros a través de Google+, pero accidentalmente sus ideas fueron publicadas y quedaron a la vista de todo el mundo, bien por despiste o porque el propio ingeniero de la red social no sabe utilizarla demasiado bien.

Para su desgracia los comentarios ya han visto la luz en numerosos medios y la compañía ha debido tomar buena nota.

Yegge considera que el lanzamiento de Google+ se basó en la “noción incorrecta de que Facebook tiene éxito porque han construido un gran producto”. En este sentido considera que la red social de Mark Zuckerberg ha triunfado porque “han construido una constelación entera de productos permitiendo a otras personas hacer el trabajo”.

El ingeniero piensa que la red social de Google es “un buen ejemplo de nuestro fracaso para comprender las plataformas”, y añade que dado el nivel de improvisación de este proyecto ni siquiera tenían una API cuando se lanzó.

Poco después de que estas críticas fueran publicadas Yegge eliminó la entrada y publicó una aclaración tratando de quitar hierro al asunto.

Además de estas críticas, Google se ha tenido que enfrentar a la publicación de unas estadísticas según las cuales el tráfico en su red social ha caído en un 60%.



vINQulos

Cnet, International Business Times

FUENTE :http://www.theinquirer.es/2011/10/13/un-ingeniero-de-google-califica-de-%e2%80%9cfracaso%e2%80%9d-a-google.html
40587  Foros Generales / Noticias / Los algoritmos avanzados posibilitan una nueva generación de antivirus en: 13 Octubre 2011, 13:33 pm
Un investigador de la Universidad de Texas, en Estados Unidos, ha impulsado una estrategia para frenar la acción de los virusinformáticos y demás códigos maliciosos, antes de que éstos empiecen a ejecutarse y mutar por ordenadores personales, redes y servidores. Dicha estrategia está basada en la aplicación de los avances en lenguaje de programación a la investigación del software de seguridad. Por Patricia Pérez de Tendencias Científicas.

Hasta hace una década, la principal preocupación de los especialistas en seguridad informática era combatir los clásicos virus, cuya finalidad era destruir o dificultar el normal funcionamiento de los ordenadores. Con el aumento progresivo de usuarios de Internet, la atención está puesta ahora en el malware, un tipo de software mucho más potente que, como gusanos y troyanos, es capaz de apoderarse de datos privados y delinquir con ellos.

Pero lo peor está por llegar, pues aunque los expertos en seguridad cibernética no han visto una clara evidencia de malware que ataque a las aplicaciones antivirus existentes, creen que es sólo cuestión de tiempo.

Uno de esos investigadores es el doctor Kevin Hamlen, del Centro de Investigación sobre Seguridad Cibernética de la Universidad de Texas en Dallas, quien con sus averiguaciones ha abierto el camino hacia una nueva generación de herramientas y estrategias para luchar contra esos códigos maliciosos e indeseables.

Según publica la revista Signal Online, el estudio de Hamlen es posible gracias al Premio Académico al Desarrollo Profesional Precoz(CAREER) que otorga la Fundación Nacional de la Ciencia (NSF), agencia norteamericana que impulsa la investigación en todos los campos no médicos de la ciencia y la ingeniería. Materializado en 500.000 dólares por un periodo de cinco años, este premio ha permitido a Hamlen desarrollar un trabajo bautizado por él mismo como "carrera armamentista virus-antivirus".

A su vez, el investigador de la Universidad de Texas reconoce que el proyecto actual es la consecución de un estudio inicial realizado para la Oficina de Investigaciones Científicas de las Fuerzas Aéreas de Estados Unidos (AFOSR), en el que ya trató de anticiparse a la "próxima generación de ataques de malware".

Evolución de los virus

Según se desprende del estudio de Hamlen, actualmente la mayoría de los virus se propagan al azar a través de la Red, mutando para evitar ser copias exactas y dificultar así su detección.

"Lo que nuestra investigación estaba viendo era si estos virus podrían empeorar al mutar de forma directa en lugar de al azar, de modo que pudieran infectar una máquina, detectar qué tipo de defensas tiene, aprender sobre ellas utilizando avanzadas técnicas automáticas, y luego trabajar activamente para derrotarlas a través de la Red", detalló el informático.

Por eso su proyecto, más que perfeccionar los actuales sistemas de detección de malware, pretende anticiparse a la acción de esos códigos malignos. Para ello, Hamlen plantea aplicar los avances en el lenguaje de programación a la investigación de software de seguridad.

Como recoge también en un comunicado la propia Universidad de Texas, la idea es "implementar algoritmos que capten el código sospechoso cuando va a empezar a ejecutarse, e interrumpirlo en los microsegundos entre las pruebas de daño inminente y el daño real en sí", extrapolando la fórmula que usan los programadores informáticos para tratar de predecir lo que los programas hacen una vez que los ejecutan.

Beneficios añadidos

La aplicación de esta investigación no llevaría aparejada la adquisición de ningún dispositivo adicional, pues aprovecharía las capacidades de cómputo y las funciones ya programadas en la gran mayoría de los chips de CPU que se utilizan actualmente, aunque con otros fines, desde los portátiles a los grandes servidores de computación en nube.

"Nadie tiene que salir a comprar nuevos chips o software: es una combinación de características que ya existen, pero que al unirlas y configurarlas con el software correcto, pueden interrumpir el malware en ese momento mágico, en el punto exacto donde se pueden aplicar algoritmos y realizar todo tipo de predicciones sobre lo que estos virus son capaces de hacer", destaca Hamlen.

En ese sentido, el investigador trabajará durante los próximos cinco años con su equipo a la búsqueda de aquel lenguaje que resulte más eficaz para hacer frente a los códigos infecciosos. En algunos casos, estos hallazgos podrían ser integrados de forma rápida y directa en los actuales programas antivirus, para mejorarlos, mientras en otros propiciarían la creación de nuevo software.

En última instancia, Hamlen apunta además que la aplicación de su estudio podría mejorar la resistencia de la infraestructura cibernética estadounidense y, por ende, la mundial, ante un ataque malicioso. Y es que, aunque los virus personales pueden no tener una trascendencia significativa, a menudo son utilizados para atacar objetivos de prioridad baja desde los que tejer la red hasta las grandes esferas.

FUENTE :http://www.laflecha.net/canales/seguridad/noticias/los-algoritmos-avanzados-posibilitan-una-nueva-generacion-de-antivirus
40588  Foros Generales / Noticias / Firma de investigación independiente recomienda banda ancha móvil 3GPP en: 13 Octubre 2011, 13:30 pm
Con más de 5.750 millones de dispositivos móviles en servicio en todo el planeta, – entre ellos más de 5.200 millones de dispositivos 3GPP – la telefonía móvil es la forma más dominante de comunicación del mundo.

Diario Ti: Las tecnologías inalámbricas emergentes de trabajo en red; están tejiendo un nuevo futuro conectado, según un informe reciente de Yankee Group, la familia de tecnologías 3GPP es una base ideal para desarrollar un plan de despliegue a prueba del futuro para los dispositivos conectados. 4G Américas, una asociación de la industria inalámbrica que representa a la familia de tecnologías 3GPP, anunció hoy la publicación del libro blanco de Yankee Group: Mobile Broadband Connected Future: From Billions of People to Billions of Things (El futuro conectado por banda ancha móvil: de miles de millones de personas a miles de millones de cosas).

El informe independiente solicitado por 4G Américas, analiza dos áreas clave que resultan esenciales para la planificación estratégica de negocios y tecnológica, de los fabricantes originales de equipos (OEM), fabricantes de chips, operadores móviles, proveedores de infraestructura móvil, proveedores de soluciones, industrias de negocios verticales, industrias de consumo masivo horizontales, empresariales, entre otros participantes del ecosistema industrial del mundo conectado del futuro: 1) ¿Por qué incorporar movilidad? y 2) ¿Cuál es la tecnología correcta para incorporar en los dispositivos conectados?

“Se prevé que todo lo que tenga un interruptor de encendido y apagado se conectará en forma inalámbrica, – ya estamos viendo aplicaciones de la industria vertical que están transformando con éxito los negocios, incluso los que no poseen interruptores, como las trampas para cazar ratones", afirmó Vicki Livingston, titular de Comunicaciones y Relaciones, con analistas de 4G Américas. “Uno de los dispositivos más sencillos, – la trampa caza ratones – ya está disponible en la forma de dispositivo que alerta a los exterminadores mediante una conexión inalámbrica, lo que ahorra tiempo, además de recursos valiosos. La visión futura que incluye hasta 50 mil millones de cosas conectadas en el 2020, no es tan difícil de alcanzar como podría parecer inicialmente".

El informe de Yankee Group; confirma que el futuro dependerá de la conectividad. Al incorporar conectividad celular en sus dispositivos, los OEM diferencian sus marcas y satisfacen a los consumidores. Según encuestas de Yankee Group, más del 69 por ciento de los consumidores exigen conectividad ubicua, y el 88 por ciento desea conectividad a velocidades de banda ancha. Según el informe, las siguientes tendencias llevaron a los actores de la industria y los usuarios finales de toda la cadena de valor hacia la conectividad incorporada:

· Los consumidores demandan una experiencia al cliente irresistible.

· Los consumidores demandan conectividad en todo momento.

· Fabricantes de dispositivos pueden apuntar a nuevos segmentos de la población de consumidores.

· Los proveedores de redes pueden monetizar nuevos servicios.

· Las empresas pueden obtener una ventaja competitiva sobre sus pares.

Además, el informe de Yankee Group concluye; que las implantaciones de dispositivos conectados gozan de claros beneficios al emplear tecnologías 3GPP (GSM-LTE), desde el nivel del dispositivo individual hasta el de la infraestructura de red. Los OEM que incorporen tecnología a sus dispositivos deberán elegir una tecnología de red escalable, costo-efectiva y de gran ancho de banda. La familia de tecnologías 3GPP es superior que sus pares en las siguientes características:

· La familia de tecnologías 3GPP provee una opción escalable para la conectividad. Las tecnologías 3GPP; aseguran capacidades de roaming mundial para los artículos conectados que crucen fronteras. Más de 800 operadores alrededor de todo el mundo utilizan tecnologías 3GPP, para conectar a más de 5.200 millones de personas. Ningún otro estándar tecnológico ostenta la misma escala mundial.

· Los módulos 3GPP son costo-efectivos. Las redes GSM omnipresentes les permiten a los fabricantes de módulos 3GPP, escalar la producción a grandes volúmenes. Soluciones de dispositivos conectados implican grandes volúmenes de módulos, e incluso pequeñas ventajas en los precios del hardware, pueden sumarse para representar un Costo Total de Propiedad (TCO) - su sigla en inglés -, significativamente menor en una implantación.

· La familia de tecnologías 3GPP ofrece la gama más flexible de opciones de redes de pequeño y gran ancho de banda. Cada aplicación M2M, (de máquina a máquina), tiene necesidades singulares de ancho de banda o latencia. Las aplicaciones SMS que funcionan en ráfagas presentan buen desempeño tanto en redes GPRS como GSM. Pero la familia de tecnologías 3PGPP, también ofrece cobertura a baja latencia con: HSPA+ y LTE, para aplicaciones que requieren mayor ancho de banda en las industrias verticales de la administración de flotas, la seguridad y la cartelería digital. Más de 400 redes en 152 países, brindan servicio con el uso de tecnologías HSPA y HSPA+.

El futuro conectado por banda ancha móvil: de miles de millones de personas a miles de millones de cosas, incluye investigaciones sobre dispositivos conectados en el ámbito de los casos de negocios, la reducción de las barreras de ingreso en la conectividad inalámbrica, el desarrollo de estándares, los beneficios tecnológicos para los dispositivos, incluso la latencia y las velocidades de transmisión, también provee aplicaciones y casos de uso de varias industrias verticales u horizontales clave, entre ellas telemática de flotas, energía, salud móvil, cartelería digital, telemática de “autos conectados", educación, sin mencionar la electrónica de consumo masivo.

“El Yankee Group llevó a cabo investigaciones sobre las categorías de dispositivos emergentes y dispositivos conectados, si bien el modelo de negocios ha estado presente durante más de una década, aún está en una etapa naciente", afirmó Eugene Signorini, Vicepresidente del Yankee Group, e investigador principal del informe. “Esta etapa va cambiando rápidamente a medida que el mundo abre muchas industrias, también dispositivos a un nuevo nivel de conectividad. Nuestra investigación demuestra que los beneficios de las tecnologías 3GPP, son correctos para el éxito en M2M, otros dispositivos empresariales y al consumidor virtual de todas las industrias horizontales y verticales."

El libro blanco de Yankee Group, Mobile Broadband Connected Future: From Billions of People to Billions of Things (El futuro conectado por banda ancha móvil: de miles de millones de personas a miles de millones de cosas, (octubre de 2011), y la correspondiente presentación en slides se encuentran disponibles para descargar gratuitamente en: www.4gamericas.org

FUENTE :http://www.diarioti.com/noticia/Recomiendan_banda_ancha_movil_3GPP/30573
40589  Foros Generales / Noticias / Telefónica ensaya en Reino Unido las llamadas gratis por Internet en: 13 Octubre 2011, 13:28 pm
O2 Connect pretende hacerle la competencia a Skype y WhatsApp

Los operadores de telefonía ven como su negocio tradicional -vender minutos de llamadas y de mensajes- se les escapa de las manos. Nuevos actores están aprovechando las aplicaciones casi infinitivas que permite Internet para arrebatarle ese negocio. Las llamadas y mensajes a bajo precio (o gratuitas) de Skype o WhatsApp, respectivamente, son solo los ejemplos más señeros de esta competencia. Telefónica lo sabe y quiere intentar frenarlo. O2, su filial en Reino Unido, ha anunciado el lanzamiento del servicio O2 Connect, que permitirá el envío de llamadas y SMS gratis a través de las redes Wi Fi.

Gracias a la tecnología VoIP (voz sobre el protocolo de Internet), todos los clientes que tengan un teléfono inteligente (smartphone) podrán realizar llamadas gratis con su número de teléfono móvil normal, a cualquier móvil o fijo de Reino Unido. El servicio, que por el momento solo es de prueba, estará disponible para los iPhone (iOS) y los smartphones que funcionan con Android, el sistema operativo de Google, y posteriormente se extenderá a otros dispositivos. Un número de clientes de O2 y de empresas podrá participar en el test mediante una selección que se iniciará este mes.

Se espera que el lanzamiento comercial de este servicio se produzca en 2012, según anunció O2 en una nota, y que se extienda a otros países, entre ellos España. Se trata del primer gran lanzamiento de Telefónica Digital, la nueva unidad de la multinacional española que engloba la innovación, y que dirige Mathew Key, antiguo responsable de O2.

FUENTE :http://www.elpais.com/articulo/economia/Telefonica/ensaya/Reino/Unido/llamadas/gratis/Internet/elpepieco/20111013elpepieco_13/Tes
40590  Foros Generales / Noticias / Microsoft anuncia cambios en la Start Screen de Windows 8 para responder a .... en: 13 Octubre 2011, 13:25 pm

Luego de la defensa que hizo Microsoft de su decisión de reemplazar el Menú inicio por la “Start Screen” en Windows 8, salieron al paso numerosas críticas por parte de los usuarios, quienes opinan que, contrario a lo que dice Microsoft, la nueva pantalla de inicio implica un retroceso en usabilidad respecto a lo que había en Windows 7.

A raíz de eso los de Redmond han publicado un artículo kilométrico, donde en parte se sigue respondiendo a las críticas, pero a la vez se anuncian cambios concretos para resolver algunos reclamos populares. Uno de ellos es la vista de “todas las aplicaciones”, la cual hasta ahora mostraba todos los programas instalados en orden alfabético, sin ninguna otra categorización. Resulta que a partir de la Beta de Windows 8 (sí, habrá una Beta pública), esta vista mostrará a las aplicaciones agrupadas de acuerdo a las carpetas que existían en el anterior menú Inicio (tal como se ve en la captura de arriba).

Otro cambio relevante será el facilitar la creación y modificación de los grupos de “live tiles” que aparecen en la Start Screen, y el entregar mayores capacidades de configuración a las empresas para que creen pantallas de inicio que se adecuen a las necesidades corporativas. Incluso le será posible al administrador bloquear la personalización de la Start Screen, para así asegurarse de que los empleados usen sólo la configuración que la empresa da por defecto.

Pero más allá de esos cambios, creo que el punto más interesante que creo que tocó Steven Sinofsky es que en la nueva “Start Screen” el usuario en realidad se demora menos en alcanzar los programas con el mouse que en el Menú Inicio, a pesar de que las “live tiles” estén más lejos. Esto es debido a la llamada “ley de Fitts” la cual dice que el tiempo que una persona tarda en mover el puntero hacia un objetivo aumenta cuando el objetivo está más lejos, pero también disminuye cuando el objetivo es de mayor tamaño (ya que se requiere menos precisión). Según explica Sinofsky, las Tiles de Windows 8 son lo suficientemente grandes como para que el aumento en tamaño compense la mayor lejanía, por lo que en realidad uno se debería demorar menos en alcanzarlas con el mouse.

Eso se ve en el siguiente “mapa de calor”, en el cual las zonas más verdes son las que se demoran menos en alcanzarse, de acuerdo a la ley de Fitts (el punto que intenta hacer Microsoft es que mientras en el menú Inicio hay solo 2 items en verde, en la Start Screen hay 17).



Esas son, en general, las ideas y anuncios más relevantes. Como mencioné antes, el artículo original es casi kilométrico, y además divaga mucho en temas secundarios que no resumiremos acá (por ejemplo, se explica como la evolución humana ha hecho que nos sea más fácil navegar por entornos en 2D que en listas unidimensionales, cita investigaciones del MIT sobre porqué son mejores los colores planos y formas cuadradas como las de Metro, etc.). Sin duda es una lectura recomendadísima para aquellos que estén más interesados en el tema de las interfaces.

Más información | Building Windows 8

FUENTE :http://www.genbeta.com/sistemas-operativos/microsoft-anuncia-cambios-en-la-start-screen-de-windows-8-para-responder-a-las-criticas-de-usuarios
Páginas: 1 ... 4044 4045 4046 4047 4048 4049 4050 4051 4052 4053 4054 4055 4056 4057 4058 [4059] 4060 4061 4062 4063 4064 4065 4066 4067 4068 4069 4070 4071 4072 4073 4074 ... 4614
WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines