elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: Rompecabezas de Bitcoin, Medio millón USD en premios


  Mostrar Temas
Páginas: [1] 2
1  Comunicaciones / Mensajería / grupo de hackers en telegram en: 5 Abril 2018, 17:13 pm
  hola yo se muchos han dicho eso de crear un grupo pero pocos lo han echo y muchos se han quedado esperando una respuesta mi propuesta es que creemos un grupo de hacking. bale esto es todo los que les interese me pueden enviar un mensage en privado.
 saludos.
  En el grupo sólo se necesita miembros activos con conocimiento básico de hacking.
Para los que les interesa aquí les dejo el enlace
      https://t.me/joinchat/IqfX7A45ArY-pAFgzSDnOw
2  Foros Generales / Foro Libre / Tiroteo en YouTube en: 4 Abril 2018, 15:35 pm
 Tiroteo en YouTube: ¿cuándo puede la plataforma filtrar tus videos y hacer que dejes de ganar dinero?
  Para Nasim Aghdam, YouTube era su forma de vida. Y este martes fue también el escenario —y, presumiblemente, la motivación— de su muerte.

La mujer de 39 años irrumpió en la sede de Youtube en San Bruno, en el norte de California, Estados Unidos, armada con una pistola, hiriendo a tres empleados de la compañía de videos de línea y suicidándose después.

La policía dijo que cuando los agentes entraron al edificio la encontraron muerta por una "herida de bala que creemos fue autoinfligida".
 
   Una mujer hiere a tres personas y se suicida en un tiroteo en la sede de YouTube en San Bruno
  El caso todavía está siendo investigado, pero las hipótesis apuntan a que Aghdam realizó el ataque porque estaba enojada con YouTube, algo que su padre ha declarado a varios medios estadounidenses.

La estadounidense de origen iraní se describía a sí misma como una activista de los derechos de los animales, una atleta y una artista vegana.
Y había acusado a la plataforma de videos de Google de bloquear y censurar sus publicaciones en sus varios canales en inglés, farsi y turco: "YouTube filtró mis canales para evitar que consigan visitas", escribió en su página web.
Lo que se sabe de Nasim Aghdam, la mujer que se suicidó luego de herir a tres empleados de YouTube en su sede de San Bruno
  En una publicación de Instagram del 18 de marzo, expresó que YouTube usa sus herramientas para "censurar y suprimir a quienes quieren contar la verdad y no encajan con los avances financieros y políticos del sistema y los grandes negocios".

Pero ¿a qué herramientas se refería Aghdam y en qué casos puede YouTube restringir el contenido que publicas en su plataforma?
  Desmonetización y filtros de contenido

Aghdam se quejaba de que la empresa había desmonetizado sus videos: dejado de pagarle por el contenido que publicaba.

"¿0,10 dólares por 300.000 reproducciones?", se quejaba.

Por ejemplo, aseguraba que YouTube impuso una restricción de edad en uno de sus videos de fitness porque era demasiado subido de tono, algo que sí permitía a cantantes como Miley Cyrus o Nicki Minaj aunque el contenido no fuera apropiado para niños, según Aghdam.

"Estoy siendo discriminada y filtrada en YouTube y no soy la única", llegó a declarar. "No hay libertad de expresión, no existen iguales oportunidades de crecimento".

Ciertamente, Aghdam no es la única youtuber que ha protestado sobre las políticas de la empresa.

De hecho, ella misma publicó en su sitio web un video de Casey Neistat, una de las más populares estrellas de YouTube, en el que se queja de la "desmonetización" y de los cambios en la manera de obtener ingresos en la plataforma.

El video original de Neistat fue publicado en septiembre de 2016 y cuenta con cerca de cuatro millones de vistas.
Casey Neistat y otras figuras de YouTube que se rebelan contra la política de publicidad de la plataforma de videos de Google
YouTube comenzó a sacar los avisos publicitarios de algunos videos a principios de 2017 luego de que algunas marcas reconocidas suspendieran sus campañas por aparecer en videos con contenido extremista.
 
  Por qué grandes marcas están retirando su publicidad de Google y YouTube
Desde entonces, la empresa endureció sus normas y comenzó a filtrar contenidos sobre drogas, discursos de odio, desnudez, lenguaje agresivo y sugerencias sexuales.

Según el algoritmo, los videos que hablan de temas como el abuso sexual o el suicidio ahora no se consideran "aptos para todo público". Eso hace que muchos de esos contenidos, según YouTube, no sean "amigables para la publicidad".

Al bloquear los avisos publicitarios en esos videos, los creadores de contenido no reciben ingresos.

La compañía también introdujo un sistema para que los propios usuarios —los "héroes"— moderen ellos mismos el contenido en YouTube y los comentarios de los videos, delatando el "contenido inadecuado".

 Cómo YouTube premiará a los "héroes" que delaten videos ofensivos
9 tipos de contenido que YouTube considera "inadecuado" para anunciantes:

    Acontecimientos controvertidos y asuntos delicados: conflictos bélicos o políticos, terrorismo o extremismo, muertes y tragedias, y abusos sexuales (aunque no aparezcan imágenes explícitas).
    Drogas y productos o sustancias peligrosas: videos que muestren o fomenten la venta, el uso o el consumo de drogas ilegales, sustancias o drogas reguladas o productos peligrosos.
    Actividades dañinas o peligrosas: que puedan causar daños físicos, emocionales o psicológicos graves.
    Contenido de incitación al odio: videos que fomenten la discriminación o el menosprecio, o humillen a una persona o un grupo por su raza u origen étnico, nacionalidad, religión, discapacidad, edad, condición de veterano o reservista, orientación sexual, identidad sexual. El contenido satírico o cómico puede quedar exento.
    Lenguaje inapropiado: uso de lenguaje grosero u ordinario de forma frecuente.
    Uso inadecuado de personajes de entretenimiento infantil: (tanto animados como de acción real) comportándose de manera violenta, sexual, malintencionada o inadecuada, incluso si el propósito es cómico o satírico.
    Contenido incendiario y degradante: los videos con contenido innecesariamente subversivo, incendiario o degradante no son aptos para mostrar ningún tipo de anuncio.
    Contenido con connotaciones sexuales: los videos que exhiben un contenido de marcado carácter sexual, como aquellos en los que el foco de atención sea la desnudez, las simulaciones sexuales o la exposición de partes del cuerpo con ánimo de provocación, además de contenido en el que aparezcan juguetes sexuales o conversaciones explícitas sobre sexo.
    Violencia: videos en los que el foco de atención sea la sangre, la violencia o las lesiones sin ningún contexto adicional.

Fuente: YouTube Creators

"La gente está... poniendo la misma cantidad de trabajo, de energía y de gastos en sus contenidos pero ahora les pagan solo una fracción de lo que ganaban antes", se quejaba Neistat.

Es prácticamente imposible revisar manualmente cada uno de los contenidos publicados en YouTube, que cuenta con unos mil millones de usuarios en 88 países, de acuerdo con datos de la empresa de 2017.

La empresa dice, sin embargo, que si sus usuarios consideran que los videos no fueron filtrados de manera justa, pueden tomar medidas: "Si el creador cree que sus contenidos deberían monetizarse, le proveemos de un sencillo formulario en el que puede apelar la decisión".
 
3  Seguridad Informática / Hacking / Dudas con la usb rubber ducky en: 11 Marzo 2018, 16:59 pm

   hola amigos me estaba preguntando que si introduces la usb en la pc de la victima la vuelves a quitar dejara una puerta trasera o simplemente se deja la usb instalada en la pc y no se la toca es cuando crea la puerta trasera.
 
   saludos.
4  Seguridad Informática / Seguridad / El virus Darckcomet en: 9 Marzo 2018, 16:47 pm
 
   Hola amigos he estado buscando pero no lo he visto si alguien me puede ayudar.
si me podeis dejar un links para bajarme el virus Darckcomet.
 porfa eso es todo.
  saludos.
5  Foros Generales / Foro Libre / La preocupación que despierta la tecnología que permite poner el rostro de cualq en: 3 Febrero 2018, 20:33 pm

 
Entre los fanáticos de internet hay un dicho conocido como la "Regla 34" que reza: "Si algo existe, habrá porno sobre ello. Sin excepción".

Esto podría aplicarse a una nueva moda en internet que consiste en utilizar la tecnología de reconocimiento facial para poner el rostro de una persona en el cuerpo de otra que protagoniza escenas pornográficas.

La tecnología no es nueva. Hace un par de años el intercambio de caras a través de inteligencia artificial se hizo popular gracias a aplicaciones como Snapchat en la que dos personas acercan sus rostros al móvil y la app los intercambiaba.

    Por qué esta compañía de inteligencia artificial está rompiendo miles de vidrios
    Así funciona "Arts and Culture", la aplicación de Google que encuentra a tu doble en pinturas famosas (y los riesgos de usarla)

La polémica, sin embargo, se generó en diciembre de 2017 cuando se hizo viral un video en el que el rostro de la actriz israelí Gal Gadot aparecía en el cuerpo de una actriz porno.

También se hicieron populares otros videos con los rostros de celebridades como Scarlett Johansson y Taylor Swift.
Más fácil

La práctica en principio solo era posible para personas con conocimientos avanzados de informática.

Ahora, estos videomontajes se han vuelto más comunes luego del lanzamiento de Fakeapp, una aplicación que según sus creadores permite hacer el intercambio facial de manera "rápida y fácil".

Se distribuye a través de la red social Reddit y ha sido descargada más de 100.000 veces.

"Esta es una nueva frontera para la pornografía no consensuada y las noticias falsas", escribe la periodista Emma Grey Ellis, de la revista Wired.

"Para muchas personas vulnerables en internet, especialmente las mujeres, esto se parece mucho al final de los tiempos".

Grey Ellis también augura que estos montaje se aplicarán en el ámbito político: "Videos trucados de candidatos políticos diciendo cosas extravagantes en 3, 2...", escribió.

Debate público

En su artículo, Grey Ellis se refiere a las principales preocupaciones que están surgiendo con esta práctica, entre las que menciona el uso indebido de la imagen de celebridades, la suplantación de identidad y la pornovenganza.

"Necesitamos tener un debate fuerte y público", dice Alex Champandard, experto en inteligencia artificial citado por el portal Motherboard.

"Es necesario que todos sepan lo fácil que es falsear imágenes y videos, al punto de que dentro de unos meses no seremos capaces de distinguir falsificaciones", dice Champandard, advirtiendo sobre los riesgos que conlleva el rápido avance de las tecnologías de reconocimiento facial.

Por ahora, algunos sitios ya han comenzado a tomar medidas.

La plataforma Gfycat, en la que se han publicado varios de estos videomontajes que luego se comparten en Reddit, ha comenzado a remover varios de ellos.
Según Leo Kelion, editor de tecnología de la BBC, el portal Reddit aún no ha comentado sobre el asunto y todavía permite el acceso a los videos que Gfycat no ha eliminado.

Las políticas de contenido de Reddit prohíben la "pornografía involuntaria".

Champandard, además del desarrollo de tecnologías que detecten videos falsos, menciona que las políticas de internet pueden ayudar a regular lo que ocurre cuando surgen este tipo de falsificaciones.

"De una manera extraña, esto es algo bueno", le dijo Champandard a Motherboard.

"Necesitamos enfocarnos en transformar la sociedad para que sea capaz de lidiar con esto".
6  Foros Generales / Foro Libre / 5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás tú no sa en: 3 Febrero 2018, 20:25 pm

  Un video que mostraba cómo sacaban a la fuerza a un pasajero de un avión de United Airways en el aeropuerto O'Hare de Chicago, Estados Unidos, se convirtió en un fenómeno viral el pasado mes de abril.

El video fue pésima publicidad para la aerolínea estadounidense, cuyos empleados querían que el hombre en cuestión, un médico de nombre David Dao, desocupara su silla para dársela a un piloto de la compañía que necesitaba llegar a la ciudad de destino del vuelo, Louisville, para hacer un relevo.

    ¿Es posible predecir un delito?: el controversial algoritmo usado por la policía de Chicago, la ciudad con más criminalidad de EE.UU.
    ¿Por qué "vivimos colonizados" por algoritmos y cómo la élite tecnológica se aprovecha de ello?

Sin embargo, apenas un puñado de las muchísimas críticas que le llovieron a la empresa abordaba un asunto crucial: ¿cómo se había determinado que fuera Dao quien cediera su lugar en el vuelo?

La necesidad de remover a Dao fue decidida por una máquina. Más específicamente, por un software que probablemente ya había marcado al doctor mucho antes de que éste pusiera un pie en el aeropuerto.

Este es sólo un ejemplo de cómo esos algoritmos están -de manera invisible y detrás de escena- tomando decisiones que afectan nuestras vidas.

Y no hablamos de los algoritmos de Google, Facebook o Netflix, que nos filtran lo que vemos o nos ofrecen sugerencias a partir de nuestras selecciones previas: a diferencia de estos, hay algoritmos que no están directamente relacionados con nuestras acciones.

En la BBC hemos reunido algunos ejemplos de cómo tu vida está ya afectada por ellos.

    Cómo funciona el algoritmo que predice la muerte

1. La inteligencia artificial decide si vas a tener un trabajo o no

Las hojas de vida o currículums ahora son más propensos a ser descartados sin siquiera pasar por las manos y la vista de un ser humano.
 
Eso es porque cada día las compañías de selección de personal están adoptando programas de Sistemas de Seguimiento a Candidatos que manejan los procesos de reclutamiento, especialmente el análisis de cientos (o miles) de solicitudes iniciales.

En EE.UU. se estima que el 70% de las solicitudes de empleo son filtradas antes de ser analizadas por humanos.

Para las compañías, esto permite ahorrar tiempo y dinero en el proceso de contratación de nuevos empleados.

Sin embargo, este sistema ha generado cuestionamientos sobre la neutralidad de los algoritmos.

En un artículo de la Harvard Business Review, los académicos Gideon Mann y Cathy O'Neil argumentan que estos programas no están desprovistos de los prejuicios y sesgos propios de los humanos, lo que podría hacer que la inteligencia artificial no sea realmente objetiva.
2. ¿Quieres un préstamo? Tu perfil en las redes sociales puede impedírtelo...

Históricamente, cuando alguien solicitaba un préstamo a una entidad financiera, la respuesta estaba basada en el directo análisis de su capacidad de pago: la proporción de la deuda sobre el ingreso de la persona y el historial crediticio.

Pero ya no es así: la capacidad de pagar un crédito ahora es evaluada por algoritmos que acumulan datos de distintas fuentes, que van desde patrones de compra hasta búsquedas en internet y actividad en redes sociales.

El problema es que ese método no tradicional podría recoger información sin el conocimiento o el visto bueno de los posibles beneficiarios del crédito.

También aquí hay cuestionamientos sobre la transparencia e imparcialidad del proceso.
3. Te puede ayudar a encontrar el amor, pero tal vez no el que estás esperando

No es una sorpresa saber que las aplicaciones de citas en internet usan algoritmos para juntar a las parejas.

De hecho es parte de su discurso para atraer clientes, especialmente con los servicios premium o de pago.

Sin embargo, cómo lo hacen es mucho menos claro.

Especialmente después de que eHarmony, uno de los sitios de citas más exitosos del planeta, revelara el año pasado que ajustaba los perfiles de algunos clientes con la idea de volverlos más "simpáticos" y atractivos.

Eso significa ignorar algunas preferencias de los usuarios, como los "me gusta" y "no me gusta".

    En qué consiste el cambio radical del muro de Facebook para 2018 y cómo te afectará como usuario

Y esto es bastante molesto para la persona que se tomó el tiempo de responder las 400 preguntas que se piden para crear un perfil en eHarmony.

Pero incluso opciones más simples como Tinder, donde las variables son menos (ubicación, edad y preferencias sexuales), no son tan claras o aleatorias.

A cualquiera que use esta aplicación se le asigna una "calificación por atracción" secreta -esto es, cuán "deseable" resulta el candidato-, que es calculada por la compañía con la idea de "facilitar mejores emparejamientos".

La compañía ha mantenido en secreto esta fórmula, pero sus ejecutivos han dado algunas pistas.

Por caso, el número de veces que un usuario es arrastrado hacia la derecha o la izquierda por otros (que es la manera como en Tinder se indica si alguien te gusta o no te gusta) juega un papel muy importante.
4. Un programa puede determinar si eres un adicto o puedes tener un seguro médico

El abuso de opioides -vendidos de forma legal o ilegal- es la principal causa de muertes accidentales en Estados Unidos y los expertos en salud a menudo hablan de una "epidemia" en el consumo.

Para atacar el problema, científicos y autoridades se están uniendo para crear y ejecutar proyectos basados en datos.

Más recientemente, en el estado de Tennessee, el proveedor de seguro médico Blue Cross y la firma tecnológica Fuzzy Logix anunciaron la creación de un algoritmo que analizaba nada menos que 742 variables para evaluar el riesgo de abuso e identificar posibles adictos.

Pero por supuesto que eso elevó una discusión ética: los datos analizados incluyen las historias médicas e incluso la dirección de residencia, de los candidatos.

    Por qué los opioides se convirtieron en un problema tan grave para Estados Unidos
    Los Sackler, la reservada familia de multimillonarios a la que señalan de beneficiarse con la crisis de opioides por la que se declaró emergencia de salud en EE.UU.

El argumento a favor señala que este tipo de intervención puede salvar vidas e incluso puede reducir abusos al sistema.

Los adictos a los opioides tienen un 59% más de probabilidades de ser usuarios costosos de servicios médicos.

Los defensores del uso de la inteligencia artificial y los algoritmos en el sector señalan que esto podría ayudar a tomar decisiones y reducir el gasto innecesario generado por errores humanos.
5. Un computador puede enviarte a prisión

Jueces en al menos 10 estados de EE.UU. están dictando sentencia con la ayuda de una herramienta llamada COMPAS.

Es un algoritmo de evaluación de riesgos que puede predecir las probabilidades de que un individuo haya cometido un crimen.

Uno de los casos más famosos que involucra el uso de COMPAS ocurrió en 2013, cuando Eric Loomis fue sentenciado a siete años de prisión por eludir el control policial y manejar un vehículo sin el consentimiento de su dueño.

Al preparar la sentencia, las autoridades locales presentaron una evaluación -basada en una entrevista y en la información sobre sus probabilidades criminales- y Loomis obtuvo una calificación de "alto riesgo de cometer nuevos crímenes".

Sus abogados rechazaron la condena usando distintos argumentos, uno de ellos el hecho de que COMPAS había sido desarrollado por una empresa privada y la información sobre cómo funcionaba el algoritmo nunca había sido revelada.

También reclamaron que los derechos de Loomis habían sido violados, porque la evaluación de riesgo tomó en cuenta información sobre el género y la información racial.

De hecho, un análisis de más de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigación ProPublica mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes.
7  Foros Generales / Foro Libre / Caen acciones de Apple por temores sobre el iPhone X en: 1 Febrero 2018, 20:14 pm
 
 

Las acciones de Apple están retrocediendo de sus alzas recientes en medio de crecientes temores de que las ventas del iPhone X se ubicarán por debajo de las elevadas expectativas para un dispositivo con tecnología de reconocimiento facial y un precio de 1.000 dólares.

Las especulaciones sobre la presunta demanda decepcionante del iPhone X han estado sonando la semana pasada, lo que contribuyó a un descenso del 6% en las acciones de Apple desde que el 18 de enero alcanzaron el nivel más alto en la historia de la compañía en 167.96 dólares.

Dicha caída equivale a una pérdida de casi 60.000 millones de dólares en el valor de mercado de la empresa desde el último hito en alza de sus títulos.

La evidencia concreta de cómo se están desempeñando las ventas del iPhone X deberá surgir el jueves cuando Apple dará a conocer sus ganancias del primer trimestre del año fiscal.

Ese período se extiende de octubre a diciembre, y abarca el lanzamiento del iPhone X a principios de noviembre y la temporada de ventas navideñas, época en que la compañía suele registrar sus mayores ventas anuales de estos dispositivos.

Apple no respondió a una solicitud de comentarios el lunes.
Por ahora, muchos inversionistas parecen estar enfocados en los comentarios de los analistas y los medios de comunicación de que la empresa está reduciendo drásticamente sus pedidos del iPhone X con sus proveedores.

Éste cuenta con características que Apple nunca había incluido en los 10 años de historia de esta línea de productos. Tiene una pantalla OLED que se extiende desde una orilla del dispositivo a la otra, y muestra las imágenes en colores más vívidos. También se apoya en tecnología que reconoce el rostro del usuario para desbloquear el teléfono y animar los emojis.

Los inversionistas esperaban que el iPhone X fuera un éxito rotundo, a pesar de su precio inicial sin precedentes de 1.000 dólares.
8  Foros Generales / Foro Libre / Expertos critican nueva aplicación de Facebook para niños en: 1 Febrero 2018, 20:00 pm
    El grupo Campaña por una Infancia sin Comerciales, compuesto por educadores, psicólogos, y pediatras, criticaron fuertemente la aplicación de messenger desarrollada por la plataforma social Facebook para niños menores a 13 años.

El grupo argumentó que Facebook está creando una necesidad de tener cuentas en redes sociales en los menores.

En diciembre de 2017, el magnate de las redes sociales, Facebook, anunció el lanzamiento de una nueva aplicación llamada https://www.voanoticias.com/a/facebook-lanza-aplicacion-mensajes-menores-control-padres/4148583.html" , una herramienta de comunicación segura entre padres y sus hijos. La aplicación se puede obtener como una extensión de la cuenta de Facebook de la madre o el padre.

Messenger Kids le da control absoluto a los padres, ellos deciden con quién puede hablar su hijo, y los mensajes que se pueden borrar de la conversación.

A raíz del lanzamiento de la aplicación expertos han establecido que esta es tan solo una manera más de inculcar a los niños la necesidad de ser parte de las redes sociales desde muy pequeños.

Una carta publicada por Campaña por una Infancia sin Comerciales, de Boston, establecía: "Messenger Kids no responde a una necesidad: está creando una", también señalaba temas como: "Atrae principalmente a niños que de otro modo no tendrían sus propias cuentas en las redes sociales".

Facebook respondió a las criticas con una declaración aclarando que la aplicación se trata simplemente de dar un espacio seguro a padre e hijos para comunicarse, y que dentro de la misma no hay publicidad.
9  Foros Generales / Foro Libre / He entrado en la deep web en: 29 Mayo 2017, 19:26 pm
    Hola amigos he entrado en la deep web en serio que no me ha parecido gran cosa solo que hay
muchos foros de informatica mas de lo que puedes encontrar en la clear web.
   pero la deep web me parecio algo menos terrorifico que lo que creia.
 
   saludos.... ;D ;D ;D
10  Programación / Desarrollo Web / como crear una red social en: 9 Mayo 2017, 00:37 am
    
    Hola amigos tengo curiosidad me gustaría saber como se puede crear una red social como facebook.
   saludos.
Páginas: [1] 2
WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines