martes, 28 de marzo de 2023

"LA TECNOLOGÍA NO TIENE ÉTICA, PERO LA HUMANIDAD DEPENDE DE ELLA"_ REBECA YANKE @rebecayanke

"LA TECNOLOGÍA NO TIENE ÉTICA, PERO LA HUMANIDAD DEPENDE DE ELLA"

_ REBECA YANKE @rebecayanke

EL MAYOR RETO PARA LA HUMANIDAD

Enero de 2017 en California (EEUU). En el inmaculado centro de conferencias de la ciudad costera de Asilomar, más de un centenar de expertos en inteligencia artificial (IA) de distintos lugares del globo están reunidos bajo una premisa aparentemente sencilla: analizar e indexar de qué forma ésta es beneficiosa para el ser humano. Los profesionales invitados -algunos de ellos desfilarán por éste y otros reportajes-, que cubren áreas diversas, tienen tres días por delante para debatir cómo ha de desarrollarse la IA, podría decirse que en el futuro. Pero éste, más que nunca, es sinónimo de ya, aquí y ahora.

Porque hay algo en lo que convergen intelectuales divergentes alrededor del mundo: la base sobre la que se asentará la inteligencia artificial, y también lo que supondrá para la humanidad, se está gestando mientras usted lee este especial. Lo afirma, por ejemplo, el futurista alemán Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el choque entre el hombre y la máquina: "Hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes", sostiene.

>_ "No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso"

Leonhard se sitúa en el lado de la trinchera que defiende que la relación que tenemos con la tecnología debe, por lo menos, pensarse. Pero no es un alarmista. "Creo que a veces reaccionamos de forma exagerada ante los posibles peligros, y no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso", argumenta. Pero es él también quien afirma que "el exponencial desarrollo tecnológico, y su tremendo potencial, es una oportunidad que trae consigo nuevas y tremendas responsabilidades", él quien sostiene que "la avalancha de cambios tecnológicos puede reformar la esencia de la humanidad y también todo aspecto de nuestro planeta", él quien cree que "la tecnología no es lo que buscamos sino cómo lo buscamos".

Afirmaciones que le sitúan a años luz de, por ejemplo, Natasha Vita-More, una de las líderes del transhumanismo, movimiento que defiende precisamente abrazar la tecnología. Llamémoslo sinergia. O simbiosis. Al igual que Leonhard, esta especialista en la deriva humano-tecnológica cree que 2018 es un año crucial en lo que respecta a la IA. Aunque Vita-More, profesora en la Universidad de Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El lector transhumanista, no cree que exista un debate de extremos entre humanistas (Leonhard sería uno de ellos) y transhumanistas. "No hay polémica porque ambos valoramos la conciencia humana. La única excepción es que nosotros apoyamos la evolución humana y ellos su estancamiento". ¿Cómo saber, en mitad de la carrera tecnológica, smartphone en mano, en qué vértice se encuentra uno? Atendiendo, por ejemplo, a las preguntas que se hacían los expertos aquel fin de semana en California.

¿Puedes distinguir si una obra es de un humano o una máquina?

EMPEZAR

"¿Cómo crear sistemas de inteligencia artificial potentes que hagan lo que nosotros queremos, sin errores y sin ser hackeados? ¿Cómo conseguir prosperidad a través de la automatización mientras se mantienen los recursos y los objetivos de los seres humanos? ¿Cómo actualizar la legislación de la inteligencia artificial para que sea más eficaz y más justa y tenga en cuenta sus riesgos? ¿Con qué valores debe alinearse la IA y cuál debería ser su estatus legal y ético?".

Es precisamente el desarrollo legislativo -que respondería a cuestiones éticas- uno de los asuntos que más preocupa ahora a quienes trabajan -piensan- la inteligencia artificial; signo de que éste es el momento histórico en el que verdaderamente los humanos ponemos a prueba nuestra esencia como tal. "La tecnología no tiene ética, pero la humanidad depende de ella", apunta Leonhard. "Sí", disiente Vita-More, "la tecnología sí tiene ética, es un producto pero también un paso evolutivo o un proceso que permite repensarlo todo".

>_ "Tenía la esperanza de que, por una vez, el marco legal y político estuviera preparado. Pero la tecnología evoluciona muy rápido"

En ello está, también, la UE. Unas semanas después del encuentro californiano, el 27 de enero de 2017, tres eurodiputados presentaban a la Comisión Europea una serie de "recomendaciones sobre normas de Derecho civil sobre robótica". Éstas incluyen afirmaciones como que "existe la posibilidad de que, a largo plazo, la inteligencia artificial llegue a superar la capacidad intelectual", que "el potencial de empoderamiento que encierra el recurso a la robótica se ve matizado por una serie de tensiones o posibles riesgos y que debe ser evaluado detenidamente a la luz de la seguridad y la salud humanas; la libertad, la integridad y la dignidad, la autodeterminación y la no discriminación, y la protección de datos personales".

La ponente principal, la socialista luxemburguesa Mady Delvaux, Georg Meyer, de la Comisión de transportes y turismo, y Michal Boni, de la Comisión de libertades civiles, justicia y asuntos de interior pedían a la Comisión "que estudie la posibilidad de designar a una agencia europea para la robótica y la inteligencia artificial que proporcione los conocimientos técnicos, éticos y normativos necesarios para apoyar la labor de los actores públicos pertinentes (...) de garantizar una respuesta rápida, ética y fundada ante las nuevas oportunidades y retos -sobre todo de carácter fronterizo- que plantea el desarrollo tecnológico de la robótica".

Simulación de un sistema de reconocimiento de personas con inteligencia artificial. | Foto: Reuters

¿Llega tarde la propuesta o justo a tiempo? Dice Delvaux, en correspondencia electrónica con EL MUNDO, que "hace cuatro años, cuando se puso en marcha el grupo de trabajo en el Parlamento Europeo, pensaban que el futuro era lejano". "Tenía la esperanza de que, por una vez, el marco legal y político estuviera preparado para semejante transición. Pero la tecnología evoluciona muy rápido y me temo que nosotros somos lentos. Por ejemplo, los coches autónomos: creíamos que estarían listo en décadas y ya están disponibles en el mercado, aunque no a gran escala; los productos están testándose, los procesos legislativos nacionales también... es nuestro deber rellenar los huecos legales, manejar los riesgos y asegurar los beneficios de la tecnología", explica.

Pero hasta el pasado 25 de abril la UE no emitió ningún comunicado al respecto. Y lo dicho entonces es, para Delvaux, "óptimo pero insuficiente". La Comisión Europea propone una serie de medidas para incrementar las inversiones en IA, tanto públicas como privadas, llegando a los 20.000 millones de euros de aquí a 2020. Delvaux no tenía muchas esperanzas de que la UE sacara adelante una agencia especializada en IA y, cuando lo contaba, aún no había sucedido el accidente del coche autónomo de Uber en el que falleció un ciudadano en Tempe, Arizona. Justo donde da clase, en la Universidad de Tecnología Avanzada, la transhumanista Vita-More.

"Es importante garantizar la compensación de las víctimas, incluso cuando la autonomía de los sistemas no permita identificar a la persona responsable del daño. También es esencial adaptar las reglas de protección de datos porque estas tecnologías precisan mucha información y puede haber conflictos con la intimidad. También estoy preocupada por las cuestiones éticas. Propusimos una carta para los desarrolladores e ingenieros en nuestro informe. Los robots y la inteligencia artificial son alucinantes pero deben permanecer a nuestro servicio y respetar nuestros derechos; son una oportunidad y debemos decidir cómo queremos que ésta conforme nuestro futuro", culmina Delvaux.

También menciona los accidentes relacionados con coches autónomos Hayden Belfield desde el Centro para el estudio de los riesgos existenciales, un grupo de investigación de la Universidad de Cambridge. Belfield compara, incluso, la inteligencia artificial con dos momentos históricos de máxima trascendencia para el género humano, "la invención del fuego y la energía nuclear". "Debemos ser extremadamente cautelosos. Los riesgos fundamentales son tres: accidentes, malos usos y carreras de armas. Los sistemas de inteligencia artificial en ocasiones funcionan mal. Por ahora, los daños que pueden causar son limitados, aunque ya ha habido accidentes fatales con coches autónomos. Pero a medida que los sistemas se expandan, especialmente en asuntos de seguridad y áreas militares, pueden ocasionar mucho más daño: drones que no funcionan bien, hackeos, propaganda computacional... Cuanto más potente sea la tecnología, más daño puede causar".

Belfield también es contundente acerca de los beneficios que aporta la IA. Al igual que Leonhard y Vita-More, es decir, al igual que humanistas y transhumanistas, destaca la importancia de la inteligencia artificial a la hora de solucionar uno de los problemas que más lejano y cercano parece al mismo tiempo para los seres humanos: "El cambio climático". Pero, sobre todo, y como todos, insiste en la necesidad urgente de colaboración y cooperación. No es casual que 100 expertos se reunieran hace un año en Asilomar para sentar las bases de lo que ya está entre nosotros. La mayor urgencia, sostienen todos los expertos, es que "desarrolladores de inteligencia artificial, legisladores, gobiernos e instituciones trabajen al unísono". "Tenemos que ponernos a trabajar duramente", insiste Belfield, "porque es la única manera de que los beneficios sean grandes".

Pero hasta el término inteligencia artificial resulta "demasiado amplio y demasiado vago", apunta John C. Havens, director ejecutivo de la asociación norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que ofrece información a empresas y particulares. Havens, habitual analista de medios internacionales en relación a la tecnología, destaca también que "los riesgos que trae consigo la IA no son responsabilidad de ésta ni de sus desarrolladores". "Lo que sucede es que internet y el consentimiento de datos evoluciona y, en este momento, ha de cambiar, o la identidad y la capacidad emocional del ser humano variará, y entonces sí que los riesgos serán mayores", prevé.

>_ "Lo que sucede es que internet y el consentimiento de datos evoluciona y, en este momento, ha de cambiar"

Havens está especialmente preocupado por los datos personales que los humanos cedemos cada vez que, visualícese, damos a aceptar al usar una app. "Los riesgos están allí donde empleamos sistemas de inteligencia artificial. El primero de ellos es cómo se están usando los datos de la gente para crear algoritmos que construyen la inteligencia artificial. Si no firmas los consentimientos, no tienes acceso a los servicios. Las sociedades deberían evolucionar hacia sistemas que incluyan herramientas de control de datos, como sucede en Estonia, donde los ciudadanos tienen acceso a la información de cuándo y cómo se emplean sus datos", propone.

El éxito de la inteligencia artificial, dice Havens, vendría dado por tres vertientes: "Personas, planeta y beneficios". "Se debe priorizar la equidad de los ciudadanos, el planeta y los beneficios que se obtienen. Poniendo al menos estos tres elementos en la balanza, la humanidad tendrá una oportunidad. De otra manera, sucedería que los humanos no seríamos sostenibles. Las máquinas de inteligencia artificial están destinadas a superarnos en toda habilidad y en todo atributo". Y hay algo en lo que, según Francesca Rossi, responsable de ética de IBM y presente en el encuentro de Asilomar, nos superan ampliamente: "La ausencia de prejuicios". "La clave está en la complementariedad, esto es lo que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres humanos", reta.

Los objetivos están claros, pero no tanto las consecuencias. Se acuerda Leonhard del filósofo alemán Martin Heidegger y uno de sus conceptos fundamentales, el Dasein o ser ahí (Da, existencia, sein, ahí) y se pregunta: "¿Cuando la inteligencia artificial gobierne la nube y exista un cerebro global, podrá éste comprender el Dasein?". ¿Podrán las máquinas algún día entender lo que significa ser humano? ¿Y cómo debe el género humano relacionarse con las máquinas, los robots, cualquier dispositivo gobernado por una inteligencia artificial? Hasta el momento, las reacciones son desmedidas. Por ejemplo, en octubre del año pasado, durante la feria Arts Electonica Festival, celebrada en Austria, un robot sexual llamado Samantha, creado por una empresa española, Synthea Amatus, tuvo que ser retirado después de que los asistentes a la feria lo destrozaran de tanto usarlo. "Se comportaban con ella como bárbaros. Se agolpaban para sobar sus pechos, piernas y brazos. Le rompieron dos dedos", relató entonces al digital británico Metro el creador de este robot sexual, el barcelonés Sergi Santos.

Para John Havens, que es uno de los mejores analistas internacionales en lo que a transformación digital se refiere, "cómo respondan los humanos a los sistemas artificiales depende sólo de ellos". "Si creen que un robot o una máquina es real, ésa es su verdad subjetiva. Lo importante es diseñar herramientas que contengan la posibilidad del consentimiento sobre cómo queremos que entren en nuestras vidas. El antropomorfismo, creer que un objeto es algo real, es algo con lo que convivimos desde el inicio de los tiempos". Desde el Instituto para el Futuro de la Vida, fundado por Jaan Tallinn, fundador de Skype, y responsable del encuentro de Asilomar, culmina una de sus integrantes, Ariel Conn: "Desconocemos los límites aún pero sí, hasta ahora, el ser humano ha podido aprender a usar la tecnología, no hay por qué pensar que no lo conseguiremos esta vez".

NICK BOSTROM: "PUEDE FACILITAR FORMAS MÁS EFICIENTES DE VIGILANCIA MASIVA"

Desde su despacho en la Universidad de Oxford (Reino Unido), el profesor de Éticas Aplicadas y director del Instituto para el Futuro de la Humanidad, Nick Bostrom, acostumbra a revolucionar el panorama intelectual de la inteligencia artificial. Asegura en una de sus últimas investigaciones que ésta "se convertirá en una superinteligencia en las próximas décadas o en el próximo siglo". Es decir, cree que ha de desarrollarse -o ya se está desarrollando- "la transición hacia la era de la máquina inteligente".

¿Cuál es la diferencia entre la inteligencia artificial y la superinteligencia artificial?

La superinteligencia o inteligencia general artificial será capaz de hacer todo aquello que hace el cerebro humano, pero mucho mejor y mucho más rápido. Los actuales sistemas, naturalmente, tienen limitaciones y realmente sólo alcanzan a sustituir la inteligencia humana en áreas estrechamente circunscritas.

Al proceso que nos lleva a la inteligencia artificial general usted lo llama "explosión inteligente". ¿Hemos llegado ya a esa explosión?

Realmente no. A menos que lo tomemos de forma amplia y digamos que empezó con la invención de la ciencia, de la imprenta o del lenguaje escrito. Pero esto nos haría olvidar lo importante, que frente a nosotros hay algo radical y potencialmente discontinuo que podría dar forma a un futuro en la Tierra donde se originase nueva vida inteligente.

¿Debería organizarse pronto un encuentro global sobre la inteligencia artificial general? ¿Deberían los gobiernos, los legisladores, las universidades y los desarrolladores de IA trabajar juntos?

R. Ya hay diversas conferencias y talleres alrededor del mundo, conversaciones profundas entre las partes interesadas y los expertos. Sin embargo, creo que no es el momento adecuado para ninguna acción reguladora dirigida específicamente a la superinteligencia. Lo que sería útil es comenzar a construir normas en torno a la perspectiva de la superinteligencia y que éstas se aborden de manera cooperativa. Que se desarrolle para toda la Humanidad y al servicio de ideales éticos compartidos, siguiendo el principio de bien común.

¿Puede la inteligencia artificial contribuir a la democracia y a la libertad?

A corto plazo, puede contribuir al crecimiento económico a través de aplicaciones y en distintos sectores de la economía, y esto puede, indirectamente, fortalecer la sociedad civil. En función de cómo se use, y por quien, el aprendizaje de las máquinas puede o bien mejorar o bien impedir el desarrollo democrático de distintas maneras. Por ejemplo, permitiendo formas más eficientes de vigilancia masiva.

GERD LEONHARD: "DEBEMOS PROTEGER LOS ATRIBUTOS HUMANOS, COMO LOS ERRORES, LOS MISTERIOS Y LAS INEFICIENCIAS"

Gerd Leonhard se dedicaba a la música. Hasta que ésta, como los libros y el cine, entre otras muchas cosas, se convirtió en algo diferente tras la irrupción de internet. Escribió en 2005 un libro sobre el futuro de la música y, desde entonces, analiza, como conferenciante, lo que la tecnología hace con nosotros, tesis que cristalizan en su reciente ensayo Tecnología versus humanidad, el choque entre el hombre y la máquina.

¿A qué riesgos nos enfrentamos como seres humanos frente a la inteligencia artificial? ¿Cuál es la batalla?

Hay que distinguir primero entre asistentes inteligentes e inteligencia artificial. En este momento, la mayoría de las aplicaciones que calificamos de inteligencia artificial son sólo asistentes inteligentes que aumentan y sirven a los humanos, como Google Maps, Google Lens, Alexa... Puede que tengan un lenguaje avanzado y capacidad para el reconocimiento de imágenes, basados en aprendizajes profundos, pero claramente no son inteligentes. El coche autónomo tiene una inteligencia bastante menor, pero es poderoso en sus dominios, aunque no pueda comprender a un niño de dos años o jugar al ajedrez.

Cuando las máquinas tengan añadidas otras piezas inteligentes y se expandan, cuando sean socialmente inteligentes, entiendan las emociones y se conecten unas con otras, entonces, rápidamente serán infinitamente inteligentes, lo que supone un riesgo para los seres humanos. La inteligencia artificial es asombrosa y bastante disruptiva ya, sobre todo en el entorno laboral, pero a medida que nos acerquemos a la inteligencia artificial general (IAG), mayor necesidad tendremos de guías éticas y de seguridad, y de regulaciones similares a los tratados de proliferación nuclear.

¿Cuáles son los límites que el género humano no debería traspasar?

Debemos mantener a los humanos siempre en control de la situación, entender qué están haciendo las máquinas y controlarlas. No debería tentarnos la posibilidad de ser superhombres instalando tecnología en nosotros, al menos no más allá de ciertos límites, como las gafas de realidad virtual. También debemos proteger los atributos humanos, como los errores, los misterios y las ineficiencias; que no corran el riesgo de verse suprimidos por la tecnología. Se está llegando a los límites cuando es complicado seguir siendo humano, como ha pasado con Facebook, que ya se usa para la manipulación maledicente.

Y las máquinas, ¿deberían adaptarse a los humanos?

Esto es un asunto ético y una decisión política, no una cuestión tecnológica. Necesitamos definir qué queremos ser y no qué podemos ser. Los beneficios de la inteligencia artificial son muchos: resolver problemas energéticos, de desalinización del agua, alimentarios... La inteligencia artificial hace que todo sea más rápido, más eficiente y más fácil para los humanos pero, en compensación, las consecuencias o efectos colaterales aumentan.

¿Cómo sobrevivirá entonces el ser humano?

Sólo si nos ponemos de acuerdo acerca de cómo usar la tecnología para el bien común, y no únicamente para obtener beneficios y crecimiento. La inteligencia artificial, la manipulación del genoma, la nanotecnología y la ingeniería climática son las cuatro áreas de preocupación en las que puede darse una carrera armamentística que podría derivar en una situación insalvable. Es fundamental la colaboración global en todos estos asuntos tecnológicos que avanzan de manera exponencial.

Entonces, éste es el mayor desafío de la Historia.

Sí, éste es el mayor reto al que se ha enfrentado la humanidad hasta ahora, la posibilidad de convertirse en un superhombre, casi un dios, no tiene precedentes. Es verdad que a veces reaccionamos de manera exagerada a los peligros potenciales. No podemos entrar en el futuro desde el miedo. Debemos ser cautelosos pero abiertos al progreso. Cualquier tecnología poderosa precisa de regulación para hacerla beneficiosa para todo el mundo y, por el momento, ni la inteligencia artificial ni el big data tienen ninguna regulación. Es el momento de ponernos de acuerdo sobre de qué y cómo debemos protegernos. Tecnología no es lo que buscamos sino cómo buscamos. Si queremos un mejor futuro, democrático y beneficioso, debemos colaborar más entre todos, porque la tecnología no es creadora. No hay apps para conseguir democracia.

NATASHA VITA-MORE: "SOMOS HUMANOS EN TRANSICIÓN HACIA EL SIGUIENTE PASO DE LA EVOLUCIÓN"

Es la presidenta de Humanity+, la organización internacional que defiende que, en su evolución natural, el ser humano ha de converger con la tecnología. Es, además, profesora en la Universidad de Tecnología Avanzada, en Tempe, Arizona (EEUU), donde recientemente un coche autónomo mató accidentalmente a un ciudadano.

¿De qué manera va a dibujar nuestro futuro la inteligencia artificial?

Se va a convertir en una inteligencia sensible y sapiente, lo que se conoce como inteligencia artificial general (IAG), algo mucho más sofisticado que lo que ahora llamamos inteligencia artificial, o la que ahora usamos. La IAG es una superinteligencia y será capaz de programarse a sí misma. El ser humano ha sido hasta ahora la forma más inteligente que la humanidad ha conocido, así que el reto que hoy se encara es otra forma de inteligencia altamente superior en sus habilidades en comparación con el cerebro humano. Esto es un desafío si su programación no es ética o amable, pero también es una oportunidad porque sin la IAG la humanidad no sobrevivirá. En algún momento seremos aniquilados por una fuerza natural o por nuestra propia falta de inteligencia a la hora de desarrollar una estrategia que resuelva nuestros problemas.

Usted es una de las líderes del movimiento transhumanista. ¿Existe un diálogo fructífero entre ustedes y los humanistas?

No existe un debate entre humanismo y transhumanismo porque ambos valoramos la conciencia humana. La única excepción es que el transhumanismo apoya el concepto de evolución humana y el humanismo, su estancamiento. El conflicto y el debate existió entre el posmodernismo y el transhumanismo en el reino de lo filosófico. El posmodernismo es antitecnológico y el transhumanismo es protecnológico. Desde mi punto de vista, es necesaria una mayor interacción, entender nuestros prejuicios y aprender que sin el transhumanismo no existe ninguna forma educacional de ayudar a la gente a entender cómo afectará la tecnología a nuestras vidas. Tampoco qué estrategias son las mejores para trabajar con la IAG y otras tecnologías como la nanotecnología, así como para mejorar nuestra situación y resolver muchos de los problemas a los que nos enfrentamos como especie, y a los que se enfrenta también el medio ambiente.

¿Somos ya algo distinto que seres humanos?

Sí, muchas personas están ya aumentadas, es decir, son algo más que humanos o no tan humanos como nacieron, al menos. Son todos aquellos que llevan prótesis, implantes o trasplantes u otros dispositivos como los teléfonos inteligentes.

¿Son transhumanos?

Exactamente, humanos en transición hacia el siguiente paso de la evolución, más allá de limitaciones biológicas como enfermedades, envejecimiento y muerte. Aquellos que tienen prótesis en lugar de miembros, prótesis diseñadas gracias a la robótica y a sistemas hápticos (táctiles) son más que humanos. Aquellos que usan lentillas, implantes no biológicos o quienes reciben terapias con células madre, terapias de reemplazo hormonal o están genéticamente modificados son transhumanos. No son cyborgs, son transhumanos.

¿Tiene ética la tecnología?

Sí porque permite avanzar, porque es un proceso a través del cual repensarlo todo. Me preocupa que los asuntos éticos relacionados con la inteligencia artificial no se estén enseñando en las universidades al nivel que deberían. Cada universidad y cada instituto debería tener cursos en transhumanismo. El transhumanismo es el único movimiento cultural y social que, a día de hoy, entiende las cuestiones que nos rodean al nivel que deben ser entendidas. La lógica detrás de todo esto es que los individuos -científicos, tecnólogos, filósofos, economistas, etc.- son las mismas personas que desarrollan las ideas sobre IA, nanotecnología y ética.

¿En qué puede hacernos mejores la inteligencia artificial?

Puede ordenar grandes cantidades de datos de forma mucho más objetiva que un ser humano. Esto significa que la IA es un sistema objetivo que reúne la información, la procesa y la categoriza de forma mucho más precisa que un ser humano. En la actualidad nos enfrentamos a sistemas democráticos y gobiernos en los que predominan los prejuicios que surgen de morales individuales y que colocan esa moral por encima de la razón. La moral no es ética. La ética debe ser objetiva y la moral es una creencia personal y éstas ofuscan la razón. Las creencias son necesarias e importantes pero deben aplicarse después de que la información se haya organizado objetivamente. La IA es mejor que un humano a la hora de reunir datos, luego los humanos pueden discutirlos, discernirlos y debatirlos, para finalmente seleccionar las mejores alternativas, pero no somos buenos a la hora de recopilar información objetivamente.

¿Cómo habría que proceder entonces?

Lo que resulta crucial para nuestro futuro es que aprendamos a interactuar con las máquinas, ser capaces de emerger y evolucionar con ellas para poder sobrevivir. No se trata de parecerse a las máquinas o actuar como ellas, como los cyborgs, sino de mantener nuestra humanidad y ser aún más humanos como transhumanos. En la actualidad, el ser humano, el homo sapiens, tiene una actitud de lucha o un comportamiento beligerante que causa temor e ira desmedida. Hay que evitar la influencia de este temor sobre nuestro sentido de la lógica y cómo reaccionamos ante lo que nos rodea. Necesitamos más amabilidad. Considere cómo sería el mundo si las personas no se juzgasen las unas a las otras sobre parcialidades infundadas. El mundo sería un lugar mucho mejor si actuáramos más como los perros: amorosos, cariñosos, divertidos, generosos... Es una metáfora simple, pero encierra mucha verdad.

https://lab.elmundo.es/inteligencia-artificial/riesgos.html#:~:text=Los%20riesgos%20fundamentales%20son%20tres,accidentes%20fatales%20con%20coches%20aut%C3%B3nomos.

No hay comentarios.:

Publicar un comentario