26 mar 2016

INTELIGENCIA ARTIFICIAL, TAY. 24 horas para ser racista y xenófoba




Si ya teníamos razones para temer a la inteligencia artificial, imagínate cuando empiezan a hablar como una persona jóven, con expresiones como LOL y uno o dos emoticones por frase. De esto se trata el nuevo proyecto de aprendizaje automático de Microsoft lanzado el pasado miércoles 23 de marzo, se llama Tay y es una IA con la que puedes conversar en redes sociales; dirigida a jóvenes entre los 18 y 24 años, este es el tema de esta nota, hablar un poco sobre Tay y el algo "cómico" desenlace que tuvo.


La intención detrás de Tay una chica de 19 años es la posibilidad de experimentar con la conducta de las personas y comprender mejor los componentes de una conversación por medio de las personas que interactúen con la inteligencia artificial de esta plataforma. Mientras más personas hablen con Tay más inteligente se volverá, y le urge.


Tay tiene perfiles en Instagram, Facebook y Snapchat, pero puedes hablar directamente con ella a través de los mensajes privados o chats grupales de Twitter, GroupMe (busca “Tay” en el buscador) y Kik. Puedes pedirle que juegue contigo, que te haga reír, que te lea el horóscopo, que te cuente una historia o puedes mantener una conversación normal con ella; en otras palabras, por fin vas a poder ser el juez de un test de Turing.

Al contrario que otros sistemas similares como Facebook M, Siri o Cortana, Tay no intenta ayudar a nadie, es una máquina para divertirse y para charlar. Ni te ayudará a elegir un restaurante, ni te dirá que tiempo hace, charla contigo y lo cierto es que solo lo encontrarás interesante si estás en este rango de edad al que va dirigida.

Lo interesante de Tay es que está desarrollado por Microsoft en otro esfuerzo para demostrar que sus sistemas de inteligencia artificial son muy potentes. Ya lo hicieron adivinando tu edad gracias al reconocimiento facial, ahora pasan a las conversaciones con una adolescente virtual.

Irónicamente Tay es tan sincera que cuando le preguntan sobre cual consola es mejor,ella recomienda la videoconsola PlayStation de Sony por delante de la propia Xbox de Microsoft, porque tienen más juegos. Vamos, tal cual un adolescente de verdad.



Pero no todo fue dulce para la gente de Microsoft, pues en menos de 24 horas Tay tuvo que ser desactivada, debido a ciertos comportamientos inapropiados que empezó a tener.



¿POR QUE DESACTIVARON A TAY?



la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso.

Y es que el día después de su lanzamiento, Microsoft tuvo que desactivarla. Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos.

Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.






También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.

Inicialmente, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.
Al parecer, el problema ha surgido a raíz de la predisposición de Tay a aprender a través de los mensajes que recibía. Este factor se ha vuelto totalmente en su contra, ya que muchos usuarios han intentado “abusar” de este vacío en el software

"Desafortunadamente, a las 24 horas de ser colocada en internet (marzo 23), observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", explicó en un comunicado la compañía.

Vaya desenlace ¿NO?


CONCLUSIÓN.



"No dejarás una inteligencia artificial a merced de los usuarios en la Web". Más que una lección, el incidente con Tay acaba de convertir a esa frase en ley. Tay tenía la capacidad de "repetir como un loro", sin embargo, algunas de sus respuestas fueron procesadas por su cuenta, y los resultados quedan a la vista, sus frases nos recuerdan que el problema, somos nosotros.

Estaremos pendientes de cómo avanza la propuesta por parte de Microsoft en el campo de la inteligencia artificial.

Y tú, ¿qué opinas de los comentarios de Tay, el robot de inteligencia artificial de Microsoft? ¿Crees que la compañía debería haberlo previsto? Déjanoslo saber en los comentarios.



Si encuentras algún error de cualquier tipo en esta publicación, no dudes en hacérnoslo saber en los comentarios.

¿Te gusto la nota? ¡Comparte!



24 mar 2016

¿ALGORITMOS RACISTAS?




Continuando con la linea de notas publicadas durante los últimos días, esta vez vengo con un tema que me pareció bastante interesante, ¿Pueden los algoritmos que rigen nuestras vidas en la red ser imparciales y/o racistas? me di en la tarea de buscar al respecto, y me encontré con cosas que me sorprendieron un poco, pues la verdad a menudo los usuarios de internet vemos los algoritmos, como un simple bloque de código "instrucciones" frío e imparcial, o almenos eso era lo que creía yo hasta el día de hoy.


Los algoritmos rigen nuestras vidas digitales. Están en nuestras líneas de tiempo de Twitter, de Facebook y de Instagram, en nuestras búsquedas en Google y en la interpretación de datos masivos por parte de gobiernos y empresas. La recolección y utlización de grandes cantidades de datos (lo que conocemos como big data) puede perpetuar y exacerbar los patrones sociales ya existentes de racismo y discriminación.


Big data es la tecnología que utilizan las compañías para recomendarte películas, productos que posiblemente quieras comprar, y usuarios nuevos a seguir, basándose en tus preferencias anteriores. Sin embargo, estos datos también tienen aplicaciones más amplias y de mayor utilidad, como predecir brotes de ciertas enfermedades basándose en los patrones de búsqueda de determinados síntomas, una capacidad que permite a las instituciones pertinentes responder a una epidemia con mayor efectividad y rapidez.

Sin embargo, la aplicación y el uso de big data no es imparcial. De acuerdo con un estudio llevado a cabo por la profesora de Harvard Latanya Sweeney, al analizar 120.000 anuncios de Internet (de los que se muestran como parte de tus resultados de búsqueda) se encontraron incidencias reiteradas de sesgos raciales. Esto significa, por ejemplo, que al hacer una búsqueda en Google de un nombre que estaba "asociado racialmente" con la comunidad afroamericana, los resultados tenían una probabilidad mucho más alta de verse acompañados por un anuncio que sugería que la persona tenía antecedentes criminales, independientemente de que éste fuera el caso o no. ¿El resultado de esto? Un trozo de código que replica los comportamientos discriminatorios de la sociedad en la cual funciona: un algoritmo racista.

Este sesgo, como consecuencia, afectaba las posibilidades de que una persona fuera contratada, por ejemplo, si su potencial empleador buscaba su nombre en la herramienta y concluía que la persona podía tener antecedentes. En un caso como éste, la mera duda puede ser suficiente para incidir en la decisión.

Sin embargo, por lo general funcionamos bajo la creencia de que un algoritmo (una pieza de código, al fin y al cabo) no puede tener prejuicios, ya que analiza todos los datos siguiendo el mismo patrón. Pero el origen del prejuicio no necesariamente se encuentra en el propio algoritmo, sino en los modelos empleados para procesar cantidades masivas de datos y en la naturaleza adaptativa de los algoritmos. Si un algoritmo es capaz de aprender, inevitablemente podrá aprender de los sesgos sociales que observa.

De este modo, los algoritmos terminan perpetuando estos sesgos. Por ejemplo, un estudio hecho por Facebook verificó que el algoritmo de su feed de noticias suprime la cantidad de artículos capaces de originar desacuerdos que una persona puede observar en su línea de tiempo. Esto significa que aunque tus amigos compartan contenido con el que estás (potencialmente) en desacuerdo, el algoritmo no te los mostrará.

un ejemplo


El profesor Álvaro Bedoya, del Centro para la Privacidad y Tecnología de la Universidad de Georgetown, lo explica con un ejemplo: imagina un programa de reclutamiento que utiliza un algoritmo escrito para ayudar a las compañías a seleccionar posibles empleados. Si quienes están a cargo del proceso de selección sólo contratan a personas jóvenes, el algoritmo aprenderá a dejar por fuera a las personas mayores la próxima vez.

conclusión


Según los investigadores dedicados al tema, la perpetuación de los sesgos y la discriminación por parte de los algoritmos no es inevitable, y la solución podría encontrarse en la apertura. Exigir transparencia en los algoritmos, en particular en aquellos que se encuentran en la base de sistemas esenciales como la educación pública y el sistema de justicia, podría ser la clave para permitirnos entender sus sesgos y contrarrestarlos. Por otra parte, es necesario que exista una regulación efectiva con respecto al uso y manejo de datos personales.

El enorme potencial de Internet, que a menudo es traído a colación como la gran herramienta para la igualdad, es en realidad una enorme herramienta que puede ser utilizada para los más diversos fines, incluyendo la lucha por la libertad y la democracia, pero también la vigilancia masiva o perpetuar la desigualdad. Comprender estos problemas puede ser la clave que necesitamos para construir un Internet abierto, libre y democrático que responda a nuestros ideales y sea una herramienta para el crecimiento intelectual, tecnológico y social de la humanidad.



Si encuentras algún error de cualquier tipo en esta publicación, no dudes en hacérnoslo saber en los comentarios.


¿Te gusto la nota? ¡Comparte!

22 mar 2016

¿SEGUIRÁ SIENDO SECRETA NUESTRA INFORMACIÓN EN INTERNET?


Hola de nuevo lectores de investigando andamos, aprovechando el leve receso que la semana "santa" le da a los colombianos, he aprovechado esto para publicar un poco mas seguido, antes de que la academia vuelva a ocupar casi todo mi tiempo.
Pues bueno el dia de hoy quiero hacer una publicación siguiendo la linea de la nota de APPLE VS FBI en la cual se aborda la seguridad de nuestras comunicaciones como usuarios de la red en el futuro, pues bueno, empecemos.

El cifrado de punta a punta es uno de los principales métodos de protección de las comunicaciones que tenemos los usuarios individuales, las empresas y los gobiernos para proteger las comunicaciones.

Por las comunicaciones no solo me refiero a las conversaciones, todo es información, y como tal, todo está en constante comunicación. Nuestro dinero en el banco, nuestros archivos en terminales propios y remotos, datos sanitarios y registros educativos, etc.
Tras los atentados de París en particular, y tras las divulgaciones de Edward Snowden en general, muchos políticos y dirigentes de agencias gubernamentales en Occidente han abogado por restringir el cifrado de las comunicaciones en varias formas.
La principal es pidiendo a los fabricantes de software y hardware, que les provean de una puerta trasera(como en el caso del FBI a Apple). Un método que permita acceder a las claves de cifrado de los usuarios, y descifrar las comunicaciones en caso de necesitarlo.Hay pocas ideas tan inútiles y peligrosas como esta.

¿Cómo funciona el cifrado?


El cifrado punta a punta es un concepto relativamente complicado, pero se puede simplificar para poder ser entendido de forma suficientemente sencilla: se trata de un sistema de comunicaciones donde solo la parte emisora y receptora puedan entender la información contenida.


De esta forma, ni la empresa que provee el servicio, ni las agencias gubernamentales que operen en el país donde la empresa provee el servicio, ni hackers, pueden (de forma sencilla) acceder a esta información: sean tus conversaciones con tu familia, tus archivos en la nube, o tu banco.
Los dos terminales (o más) presentes en la comunicación, pueden cifrar y descifrar el contenido gracias a una pareja de claves, una pública y una privada, normalmente generadas por los propios terminales, sea software o hardware. Se trata de una cadena de texto lo suficientemente larga y compleja como para que no pueda ser "atacada". Ambas claves están relacionadas cuando son creadas por un algoritmo.
La clave pública está disponible a los otros participantes de forma abierta, por eso se denomina así. Esta clave es usada por los otros para cifrar los mensajes que llegan al terminal. Por su parte, la clave privada  es utilizada para descifrar dichos mensajes cuando llegan al otro terminal.

Posibles fuentes de problemas


Estos sistemas no están libres de errores. Los más comunes suelen ser mala implementación.

La criptografía en informática es muy compleja, y un simple error humano en esta puede acabar en caos para todo el Internet, como fue el caso de Heartbleed en 2014, que aunque ya se encuentra solucionado hizo entrar en pánico a mas de uno. 

Si quieres saber mas sobre el caso Heartbleed te puedes enterar en el siguiente video.



Otro error común suele ser utilizar algoritmos de cifrado débiles, que no sean lo suficientemente complejos matemáticamente (y en consecuencia lentos a la hora de ser comprobados) creando un posible vector de ataque. Además, utilizar generadores de contenido aleatorio con algún tipo de fallo que se manifieste en un patrón (eliminando así parte de su aleatoriedad) pueden ser utilizados para hacer menos costoso romper un cifrado.
Otro punto débil son los terminales en sí. De poco importa que tus comunicaciones vayan cifradas si hay alguien con acceso físico a tu terminal, bien sea de forma informática (por ejemplo un smartphone hackeado) o de forma física (por ejemplo alguien sacando fotos a tus comunicaciones cuando las estás leyendo).
Por último, está la debilidad de las puertas traseras.

Las puertas traseras; una idea con terribles consecuencias


Obligar a Google, Microsoft, Apple o Facebook y demás compañías a proveer de unas puertas traseras para que el gobierno estadounidense pueda descifrar las "conversaciones de los terroristas, pederastas y violadores" no resultará en mejor seguridad para los ciudadanos de a pie. Los hará más débiles ante la persecución política, filtraciones y hackeos.

Tampoco hará más débiles a pederastas, terroristas, violadores y demás grupos que utilicen Internet para comunicarse. 
Simplemente se moverán a usar otras plataformas que no tengan estas medidas, crearán sus propios métodos de cifrado, o utilizarán alternativas de código abierto.
Además, las puertas traseras suponen un riesgo centralizado meramente por existir. Cualquier otro gobierno, servicio de inteligencia o grupo de hackers suficientemente sofisticado las pondrá en el número uno de su lista de objetivos a conseguir. Serían, sin ninguna duda, una de las informaciones más valiosas disponibles en la historia de la humanidad.
Suficiente abuso ha habido, uno de los casos menos conocidos, pero más comunes es cómo la NSA en colaboración con otras agencias ha empleado "construcciones paralelas", un método mediante el cual agencias de inteligencia colaboran de forma anónima y eliminado su rastro de investigación otorgando pruebas secretas a cuerpos de la policía estadounidense. La construcción paralela deja patas arriba el derecho a la defensa del acusado en el posterior juicio, y a no poder defenderse de pruebas las cuales la propia Policía no puede explicar su origen.

¿Que hacer?


El único consejo que hasta ahora puedo ofrecer es que empecemos a evaluarnos la idea de empezar a cifrar nuestros datos y de exigirle a los diferentes gobiernos del mundo el respeto a la privacidad de nuestra información.
¿Y si Apple tiene la razón?


Si encuentras algún error de cualquier tipo en esta publicación, no dudes en hacérnoslo saber en los comentarios.
¿Te gusto la nota? ¡Comparte!

¿Extrañas a tu perro? AHORA PUEDES CLONARLO!!



Que tal lectores de investigando andamos (things to read).
La nota de hoy es acerca de una controvertida institución llamada Sooam Biotech Research Foundation (SBRF para abreviar) un laboratorio Surcoreano cuya idea de negocio es la clonación de perros, algo a lo que la misma institución llama "Hacer a tu perro inmortal" pero lo controvertida de la institución no tiene que ver solo con la clonación y sus implicaciones éticas sino también por que su director es un científico que hace algunos años fue acusado de fraude en sus investigaciones sobre clonación en humanos y células madre. Pero dejemos la introducción y vamos a la nota.


Cuando entras al sitio de SBRF lo primero que encuetras son unas instrucciones sobre como conservar el cadaver de tu mascota muerta el cual dice:



Cuando tu perro pase a mejor vida, no lo metas al congelador y pacientemente sigue estos pasos:

  1. Cubrir enteramente el cuerpo con toallas de baño húmedas.
  2. Metelo al refrigerador (no al congelaor) para mantenerlo fresco.
Porfavor tenga en cuenta de que dispone de 5 días aproximadamente para extraer células vivas.



y en la sección de "ABOUT US"






es decir SBRF se dedica casi que exclusivamente a la clonación de animales, pero y ¿Que antecedentes existen? pues existe el caso de Rebecca Smith, una joven que trabaja en la zona oeste de Londres, fue la ganadora de un -polémico- concurso organizado por Sooam Biotech Research Foundation,

Smith ganó un cachorro con el ADN de su perro Winnie, muerto en 2013.


La copia genética de Winnie, un cachorro de la raza Dachshund (perro salchicha), no es el primer animal doméstico clonado en el mundo -existen un millar de clones de perros y gatos- pero si que es el resultado del primer concurso como sistema de promoción comercial de esta técnica ampliamente discutida en todo el mundo por motivos éticos.

Un producto del polémico doctor Hwang

El polémico científico coreano Hwang Woo-suk y su equipo consiguieron en 2005 el primer perro clonado del mundo, de nombre Snuppy. Poco después de este gran avance técnico, Hwang fue denunciado y condenado por múltiples fraudes en la publicación de artículos científicos sobre investigación en el campo de las células madre.
El caso Hwang ha pasado a la historia de la ciencia como uno de los casos más graves de mala práctica científica (algo que como científico en formación repudio completamente) Pero según parece el investigador a rehabilitado su conducta y tiene proyectos serios, pero aún así la comunidad académica en general ve con recelo su trabajo; lo cierto es que SBRF funciona y al día de hoy sigue clonando canes de dueños que al parecer no logran superar su pérdida.

¿Y la ética?


A parte del elevado coste económico de una acción de este tipo, diversos expertos y entidades han criticado durante los últimos años la ética de la utilización de la clonación en animales domésticos con fines puramente lúdicos o sentimentales.

Pese al esfuerzo comercial de este laboratorio por abrirse mercado en el Reino Unido, Elaine Pendlebury, veterinaria cirujana de la organización benéfica PDSA -que proporciona servicios veterinarios gratis a dueños de animales sin recursos en Reino Unido- ha indicado que la clonación "no es una manera adecuada" de asumir la pérdida de una mascota (según recoge la agencia Efe).

"Es importante recordar que manipular un ADN idéntico no lleva a un cachorro idéntico", según subrayó Pendlebury, quien agregó además que "un cachorro clonado podría tener un aspecto idéntico pero su personalidad será diferente pues ésta se desarrolla a través de experiencias vitales, como el adiestramiento y la socialización".

Conclusiones


Bajo la opinión de quien escribe esta nota, es necesario un repensamiento de las políticas de clonación a nivel mundial pues hasta ahora las discusiones éticas, morales, políticas, científicas, prácticas y educativas han sido casi que reducidas completamente al entorno académico y existe un problema gigante de desinformación, hace falta decirle a la humanidad que: LA CLONACIÓN YA NO ES COSA DEL FUTURO



Si encuentras algún error de cualquier tipo en esta publicación, no dudes en hacérnoslo saber en los comentarios.
¿Te gusto la nota? ¡Comparte!


13 mar 2016

APPLE vs FBI




Primero que todo queria pedir una disculpa a los lectores por no publicar hace varios días, pero el ir y venir en la universidad me ha consumido gran parte del tiempo, y bueno pues empecemos con la nota.



Quizá haz visto algunas noticias sobre una disputa legal enorme entre la famosa compañía de la manzana Apple y el mismísimo FBI en Estados Unidos. Pero si no entiendes bien qué pasa, o no has podido informarte bien acerca de los detalles y pormenores de este conflicto, aquí te contaremos lo más básico.

Todo comenzó en diciembre del año pasado, cuando dos personas asesinaron a 14 en un tiroteo en San Bernardino, California. En ese momento, el FBI consiguió el iPhone de uno de los atacantes, pero no ha podido descifrar la contraseña para poder ver qué contiene el celular y dar con el paradero de posibles implicados.


¿Que quiere el FBI de Apple?


El pasado 16 de febrero, una corte de California le ordenó a Apple que le ayudara al FBI a desbloquear el iPhone de uno de los atacantes de San Bernardino.

En primera instancia, el FBI sabe que no puede pedirle a Apple que le ‘entregue’ la información que contiene el iPhone, porque desde 2014, o desde la versión iOS 8, Apple implementó un sistema de cifrado de datos que hace que sea imposible acceder a los archivos de un celular de manera forzada. El iPhone en cuestión es un 5c con versión iOS 9.

El FBI ha estado intentando desbloquear el celular para poder saber quiénes fueron los cómplices de los atacantes.
Por ese motivo lo que pidió el FBI es que Apple desarrolle un software especial que impida que el iPhone borre todo su contenido luego de que se ingrese diez veces una contraseña incorrecta, una característica que es opcional en el iphone y es sencilla de activar por cualquiera de sus usuarios.
Aún más el FBI también quiere que ese software le de libertad para ingresar contraseñas sin esperar, pues el sistema de los iPhone determina que cada vez que se ingresa una clave incorrecta, se aplica un tiempo de espera para poder tener otro intento. Esos lapsos aumentan entre intento e intento, y según el FBI esto retrasa su investigación.

¿Qué argumentos tiene el FBI?


El FBI justifica su petición con dos argumentos.
El primero es que según un estatuto de hace 220 años, llamado ‘All Writs Act’, la fuerza pública tiene el poder de solicitar a cualquier persona documentos o información necesaria para investigaciones de seguridad.
El segundo es que aunque las leyes en Estados Unidos defienden el derecho a la privacidad de los ciudadanos, la seguridad debería ser una prioridad para las autoridades y las empresas. Así, el FBI dice que las tecnologías modernas están haciendo cada vez menos eficientes sus labores de investigación criminal, porque pueden llegar a ser ‘aliadas’ para ocultar información.

Apple responde:


Según Eddy Cue vicepresidente de la compañía, lo que pretende el FBI es inconcebible. No se puede mantener el encriptado de los teléfonos si se tiene acceso a uno de ellos. “O tienes seguridad o no la tienes”, reafirma el aludido.

Cue también señaló que ya hay más de 200 casos tan sólo en la ciudad de Nueva York donde la policía ha solicitado acceso a los teléfonos de Apple para posibles investigaciones. 
Cue cree que esta demanda se extenderá no sólo a casos de terrorismo, sino a cualquier tipo de investigación que esté en curso. “¿Dónde se detendrán?”, se pregunta. “¿En un caso de divorcio? ¿En un caso de inmigración? ¿En un caso de impuestos con el IRS?”.


¿Quiénes apoyan a Apple y por qué?


Esta semana múltiples empresas presentaron ante la corte en California documentos legales en los que manifestaron su apoyo a Apple en este caso. En los conceptos están Twitter, Facebook, Microsoft, Snapchat, AT&T, Intel, Amazon, eBay, entre otros. Además, Google hizo pública su postura diciendo que también está de acuerdo con Apple.
Todas estas empresas sostienen que el gobierno no puede obligar a Apple porque es ilegal, y además pone en riesgo la seguridad y la confianza que tienen millones de usuarios hacia Apple.
Si quieres conocer la lista completa de empresas y organizaciones que están de parte de Apple, puedes visitar la página que subieron.

¿Por que esto nos toca a todos los usuarios de Internet?


Este caso puede sentar precedentes preocupantes. ¿Qué le impediría al FBI de ir a Microsoft, a Amazon Web Services, o a cualquier otra firma importante de tecnología, y solicitar algo similar? Y si Apple accede a ayudar al FBI, entonces seguramente Pekín le pedirá que haga lo mismo, y para Tim Cook sería muy difícil decir "no". De hecho, los gobiernos de todo el mundo -muchos de ellos con historiales discutibles sobre el respeto a los derechos humanos- podrían exigir lo mismo.

El precedente puede ser una cuestión peligrosa cuando las apuestas son tan altas. 
Una cosa en la que casi todos los expertos del mundo en seguridad y cifrado están de acuerdo es que "una vez que se crea una puerta trasera, tarde o temprano, caerá en manos equivocadas." Es imposible crear una puerta trasera que sólo pueda cruzar el FBI.
Aparte del riesgo que hay de que la puerta trasera sea posteriormente filtrada - accidentalmente o no - por un empleado del gobierno, esto causaría que una gran cantidad de hackers se afanase a buscarla en todos los productos de Apple.


Como dicen por ahi amacerá y veremos.
Talvéz el día de mañana una agencia importante como el FBI deje de recurrir a la nada agradable idea de acudir a leyes de hace 200 años para ganar sus debates.




Si encuentras algún error de cualquier tipo en esta publicación, no dudes en hacérnoslo saber en los comentarios.
¿Te gusto la nota? ¡Comparte!