[ad_1]

Universidad de Oxford

Oli Scarff / Getty Images

Oxford y Cambridge, las universidades más antiguas del Reino Unido y dos de las más antiguas del mundo, están observando de cerca el vibrante campo de la inteligencia artificial (IA) celebrado como tecnología que provocará una nueva revolución industrial, cambiando el mundo tal como lo conocemos.

En los últimos años, cada una de las instituciones centenarias ha invertido millones de libras en la investigación de los posibles riesgos asociados con las máquinas del futuro.

Algoritmos inteligentes pueden superar a las personas en ciertas tareas. Por ejemplo, pueden vencer a los mejores jugadores humanos del mundo en juegos increíblemente complejos como el ajedrez e ir, y pueden identificar tumores cancerosos en una mamografía mucho más rápido que un clínico humano. Las máquinas también pueden distinguir la diferencia entre un gato y un perro o determinar la identidad de una persona aleatoria con solo mirar una foto de su cara. También puede traducir idiomas, conducir automóviles y mantener su hogar a la temperatura adecuada. Pero en general, están lejos de ser tan inteligentes como el niño promedio de 7 años.

El principal problema es que la IA no puede realizar múltiples tareas. Por ejemplo, una IA juguetona aún no puede pintar una imagen. En otras palabras, la inteligencia artificial es muy «estrecha» hoy en día. Sin embargo, los informáticos como Google y Facebook quieren que la IA sea más «general» en los próximos años, y esto ha preocupado profundamente a algunos grandes pensadores.

Conoce al profesor Bostrom

Nick Bostrom, un filósofo y polímato sueco de 47 años, fundó el Instituto del Futuro de la Humanidad (FHI) en la Universidad de Oxford en 2005 para evaluar cuán peligrosas podrían ser la IA y otras amenazas potenciales para las especies humanas.

En el vestíbulo principal del instituto, las ecuaciones complejas, que son incomprensibles para la mayoría de las personas, se escriben en pizarras junto con palabras como «seguridad de AI» y «gobernanza de AI». Estudiantes reflexivos de otros departamentos van y vienen a medida que realizan sus rutinas diarias.

Es raro obtener una entrevista con Bostrom, un transhumanista que cree que podemos y debemos equipar nuestros cuerpos con tecnología para eliminar el envejecimiento como causa de muerte.

«Soy bastante protector con la investigación y el tiempo para pensar, así que soy medio alérgico cuando planeo demasiadas reuniones», dice.

Bostrom es alto, delgado y afeitado, y ha enfurecido a algunos investigadores de IA con su apertura para entretener la idea de que las máquinas algún día serán las principales en la Tierra en un futuro no muy lejano. No va tan lejos como para decir cuándo será ese día, pero cree que puede estar lo suficientemente cerca como para preocuparnos por eso.

El filósofo sueco Nick Bostrom es Polymath y autor de «Superintelligence».

El Instituto del Futuro de la Humanidad

Cuando y cuando las máquinas tienen inteligencia artificial general a nivel humano, Bostrom cree que pueden volverse más inteligentes y súper inteligentes rápidamente. En este punto, nadie puede adivinar lo que sucede después.

El optimista dice que las máquinas súper inteligentes liberarán a las personas del trabajo y les permitirán vivir en una especie de utopía donde hay una abundancia de todo lo que podrían desear. El pesimista dice que decidirán que las personas ya no son necesarias y los eliminarán a todos. El multimillonario Elon Musk, que tiene una relación compleja con investigadores de IA, recomendó el libro de Bostrom «Superinteligencia» en Twitter.

El Instituto Bostrom ha recibido aproximadamente $ 20 millones en fondos desde su creación. Alrededor de $ 14 millones provienen del Open Philanthropy Project, una fundación de investigación y becas con sede en San Francisco. El resto del dinero proviene de Musk y el Consejo Europeo de Investigación.

Ubicado en un modesto edificio en una calle sinuosa cerca de la principal calle comercial de Oxford, el instituto está lleno de matemáticos, informáticos, médicos, neurocientíficos, filósofos, ingenieros y politólogos.

Los pensadores excéntricos de todo el mundo vienen aquí para tomar una taza de té y hablar sobre lo que se avecina. «Muchas personas tienen un tipo de polimapatía y a menudo están interesadas en más de un área», dice Bostrom.

El equipo de FHI ha crecido de cuatro a alrededor de 60 personas a lo largo de los años. «En un año o año y medio, nos acercaremos a 100 (personas)», dice Bostrom. La cultura en el instituto es, según Bostrom, una mezcla de ciencia, start-up y ONG, que crea un «interesante espacio creativo de posibilidades» en el que existe «un sentido de misión y urgencia».

Los peligros de A.I.

Si la IA de alguna manera se vuelve mucho más poderosa, según Bostrom, hay tres formas principales en las que puede hacer daño. Usted está:

  1. La IA podría hacer algo malo a las personas.
  2. La gente podría hacer algo malo con la IA.
  3. La gente podría hacerle cosas malas a la IA (en este escenario, la IA tendría un estado moral).

«Cada una de estas categorías es un lugar plausible donde algo podría salir mal», dice Bostrom.

Con respecto a las máquinas que se vuelven contra los humanos, Bostrom dice que si la IA se vuelve realmente poderosa, existe «el riesgo potencial de que la IA haga algo que nadie intente hacer, lo que podría ser dañino».

Ya existe un precedente para las personas que hacen cosas malas a otras personas con IA porque las personas han utilizado otros descubrimientos tecnológicos para la guerra o la opresión. Por ejemplo, mire los bombardeos atómicos de Hiroshima y Nagasaki. Bostrom dice que vale la pena descubrir cómo reducir el riesgo de que esto le suceda a la IA. Esto es más fácil dicho que hecho.

Creo que ahora es menos necesario centrarse principalmente en las desventajas de la IA.

Cuando se le preguntó si estaba más o menos preocupado por la llegada de máquinas súper inteligentes que cuando se publicó su libro en 2014, Bostrom dijo que los plazos se acortaron.

«Creo que el progreso ha sido más rápido de lo esperado en los últimos seis años con toda la revolución del aprendizaje profundo y todo», dice.

Cuando Bostrom escribió el libro, no había mucha gente en el mundo investigando seriamente los peligros potenciales de la IA. «Ahora existe este pequeño pero próspero campo de trabajo de seguridad de IA con varios grupos», dice.

Bostrom dice que es importante recordar que la IA tiene beneficios interesantes y que no quiere ser vista como la persona que predice el fin del mundo.

«Creo que ahora es menos necesario enfatizar las desventajas de la IA», enfatiza que sus puntos de vista sobre la IA son complejos y diversos.

Aplique un pensamiento cuidadoso a las preguntas masivas.

Bostrom dice que el objetivo de FHI es «aplicar el pensamiento reflexivo a grandes preguntas para la humanidad». El instituto no solo mira hacia el próximo año o los próximos 10 años, sino que mira todo permanentemente.

«La IA fue un interés desde el principio, y para mí hasta la década de 1990», dijo Bostrom. «Es un gran enfoque, casi se podría decir obsesión».

El auge de la tecnología es una de varias oportunidades posibles que, según Bostrom, podrían cambiar la «condición humana». La IA es una de estas tecnologías, pero hay grupos en FHI que se ocupan de la bioseguridad (virus, etc.), nanotecnología molecular, tecnología de vigilancia, genética y biotecnología (mejora humana).

Una escena de ‘Ex Machina’.

Fuente: Universal Pictures | Youtube

Cuando se trata de IA, la FHI tiene dos grupos; Uno está trabajando técnicamente en el problema de la alineación de la IA y el otro está lidiando con los problemas de gobernanza que surgirán cuando la inteligencia artificial se vuelva cada vez más poderosa.

El grupo de selección de inteligencia artificial desarrolla algoritmos e intenta descubrir cómo los sistemas inteligentes complejos pueden comportarse como pretendemos. Para hacer esto, deben basarse en «preferencias humanas», dice Bostrom.

Riesgos existenciales

A unos 100 km de la Universidad de Cambridge, los científicos también consideran las amenazas a la existencia humana, aunque desde una perspectiva ligeramente diferente.

Investigadores del Centro para el Estudio del Riesgo de Existencia (CSER) evalúan armas biológicas, pandemias y, por supuesto, IA.

Nos dedicamos a investigar y mitigar los riesgos que pueden conducir a la extinción humana o al colapso de la civilización.

Centro de Evaluación de Riesgos de Existencia (CSER)

«La inteligencia artificial fue una de las áreas de actividad más activas», dijo el cofundador de CSER, Lord Martin Rees, en una entrevista anterior de sus grandes dependencias en el Trinity College.

Rees, un renombrado cosmólogo y astrofísico que fue presidente de la prestigiosa Royal Society de 2005 a 2010, se retiró, por lo que su función de CSER es voluntaria, pero sigue muy comprometido.

Según Rees, es importante que cualquier algoritmo que decida el destino de las personas pueda explicarse a las personas. «Si es encarcelado por un algoritmo o se le roba su solvencia crediticia, tiene derecho a una explicación que pueda entender. Por supuesto, este es el problema en este momento, porque lo notable de estos algoritmos como el algoritmo de juego AlphaGo (Google DeepMind’s Go) ) es que los desarrolladores del programa no entienden cómo funciona realmente. Esto es un verdadero dilema y lo saben «.

La idea de CSER se desarrolló en el verano de 2011 durante una conversación en la parte trasera de un taxi de Copenhague entre el académico de Cambridge Huw Price y el cofundador de Skype, Jaan Tallinn, cuyas donaciones representan entre el 7 y el 8% del financiamiento total del centro, y equivalen a cientos de miles de libras.

«Compartí un taxi con un hombre que pensaba que su probabilidad de morir en un accidente de inteligencia artificial era tan alta como la de una enfermedad cardíaca o cáncer», escribió Price sobre su viaje en taxi con Tallin. «Nunca había conocido a nadie que viera esto como un motivo de preocupación tan urgente, por no hablar de alguien con los pies tan firmes en el negocio del software».

Universidad de Cambridge

Geografía Photos / UIG a través de Getty Images

CSER examina cómo se puede usar la IA en la guerra y analiza algunas de las preocupaciones a largo plazo sobre las que han escrito personas como Bostrom. También analiza cómo la IA puede impulsar la ciencia climática y las cadenas de suministro de alimentos agrícolas.

«Estamos tratando de investigar los aspectos positivos y negativos de la tecnología porque nuestro verdadero objetivo es hacer que el mundo sea más seguro», dijo Seán ÓhÉigeartaigh, director ejecutivo de CSER y ex colega de Bostrom. Según ÓhÉigeartaigh, quien tiene un doctorado en genómica del Trinity College de Dublín, CSER actualmente tiene tres proyectos conjuntos con FHI.

Los consultores externos incluyen Bostrom y Musk, así como otros expertos en inteligencia artificial como Stuart Russell y Murray Shanahan de DeepMind. El difunto Stephen Hawking también fue asesor cuando estaba vivo.

El futuro de la inteligencia.

El Centro Leverhulme para el Futuro de la Inteligencia (CFI) abrió sus puertas en Cambridge en 2016 y ahora se encuentra en el mismo edificio que CSER, a un tiro de piedra de los botes en el río Cam. El edificio no es lo único que comparten los centros: los empleados también se superponen y hay mucha investigación que abarca ambos departamentos.

Con el apoyo de más de £ 10 millones de la Fundación Leverhulme, se dice que el centro apoya el «pensamiento innovador en el cielo azul», según ÓhÉigeartaigh, su co-desarrollador.

¿Realmente había necesidad de otro de estos centros de investigación? ÓhÉigeartaigh lo cree. «Se hizo evidente que, además de las posibilidades técnicas y los desafíos, también habría cuestiones legales, económicas y de ciencias sociales para ser examinadas», dice.

«¿Cómo nos aseguramos de que la inteligencia artificial beneficie a todos en una sociedad global? ¿Examinan temas como los involucrados en el proceso de desarrollo? ¿A quién se consulta? ¿Cómo funciona la gobernanza? ¿Cómo nos aseguramos de que las comunidades marginadas tengan voz? «»

El objetivo de CFI es lograr que los informáticos y los expertos en aprendizaje automático trabajen de la mano con personas de política, ciencias sociales, riesgo y gobernanza, ética, cultura, teoría crítica, etc. Como resultado, el centro debería poder obtener una visión general integral de las diversas oportunidades y desafíos que la IA trae a las sociedades.

«Al reunir a las personas que piensan en estas cosas desde diferentes perspectivas, podemos descubrir qué escenarios son plausibles y cuáles vale la pena mitigar», dijo ÓhÉigeartaigh.

[ad_2]