¿De verdad crees que, con la IA, «reforzar lo que nos hace humanos» es suficiente?

POST Nº 724
Escucho y leo que la solución ante el avance de la IA es «reforzar lo que nos hace humanos». Se lo he escuchado al bueno de Recuenco, y es algo con lo que es difícil estar en desacuerdo. Todos queremos ser más personitas y menos máquinas, pero revisemos con sinceridad el escenario que nos plantea el crecimiento exponencial de la IA para saber si esa es una solución realista. O si, como pienso yo, es una declaración de buenas intenciones para no estresarnos mientras procrastinamos y seguimos tejiendo nuestra propia trampa.
Para mí la solución no pasa solo por desarrollar (“reforzar”) nuevas habilidades humanas, sino también por una contención de lo que pueden/deben hacer las máquinas. Vamos a llegar a un momento —que no está tan lejano, como dicen—, en el que tendremos que empezar a hablar en serio de activar mecanismos de «discriminación positiva de lo humano». Suena disparatado, loco, pero volveré a esta idea más adelante.
Lo primero, por aterrizar más la cita del título, vamos a preguntarnos lo siguiente: ¿Qué tipo de cosas o habilidades nos hace más humanos? Una manera de contestar esto, y me parece la más objetiva dado el contexto reduccionista en el que se plantea (muy determinado por la tecnología), es identificar aquellas cualidades que, al menos por ahora, son difíciles de replicar o capturar completamente por las máquinas. La mayoría de los expertos coinciden en que pueden ser las que listo a continuación (y serían estas las que «hay que reforzar», según la receta que nos han dado):
- Empatía y conexión emocional: La capacidad de entender y compartir las emociones de los demás, de construir vínculos sensibles a los matices emocionales en distintas situaciones.
- Creatividad: Generar cosas nuevas con un propósito y una emoción. Desde arte y escritura, a música, pasando por la resolución de problemas complejos.
- Pensamiento crítico y ético: Analizar el mundo, cuestionar, reflexionar y tomar decisiones basadas en valores éticos, entendiendo las consecuencias a largo plazo.
- Espiritualidad y sentido de propósito: La búsqueda de significado, ya sea a través de la religión, la filosofía o el autodescubrimiento. Esto incluye contemplar preguntas profundas sobre la vida, el universo y nuestra existencia.
- Sentido del humor: La capacidad de encontrar humor en situaciones complejas o absurdas, generar risas con un toque único y singular.
- Improvisación y adaptación: La flexibilidad para lidiar con lo inesperado de manera creativa, tomando decisiones rápidas.
- Colaboración social y comunitaria: Trabajar juntos/as para resolver retos comunes y mejorar la convivencia.
- Narración de historias: Compartir experiencias, valores y emociones a través de historias que conecten generaciones y transmitan significado.
De todo esto que he listado antes, ¿Qué crees que las máquinas o la IA no van a llegar a hacer igual o de manera similar a nosotros? Antes de contestar, por ganar en perspectiva, compara lo que la IA era capaz de hacer hace solo uno o dos años, y lo que hace ahora. Piensa, por ejemplo, si ChatGPT no parece hoy ser mucho más empático, emocional, colaborativo e incluso, hasta se ha apuntado al pensamiento crítico con más eficacia que muchas personas que yo conozco. Dije que «parece», vale, pero lo mismo da si ponemos esto en el contexto de una sociedad profundamente finalista, como en la que vivimos.
Las máquinas equipadas con IA nos comen el terreno a lo bestia. Podrán hacer todo esto sin sentir nada, pero sí simulando que sienten. Los propios humanos les estamos enseñando a hacerlo porque las programamos y entrenamos para que sean buenas en eso. El resultado va a ser muy similar o superior (lo estamos viendo con ChatGPT), aunque el modo de hacerlo no sea genuino ni humano. Pero, ¿qué importa cómo se hizo el puchero si sabe riquísimo? En todo eso, sin excepción, las máquinas (gracias a la IA) están reduciendo la brecha respecto de nosotros, los humanitos. En algunas de esas cualidades, el recorte llega a ser dramático. En otras, hay un potencial evidente de poder conseguirlo. Pronto, veremos algunas de esas habilidades superadas.
Sinceramente, no veo que seamos capaces de mejorar esas habilidades «que nos refuerzan como humanos» al ritmo en el que nos comen terreno las máquinas. Podemos mejorar en eso, por supuesto, y es bueno que se plantee como aspiración —yo me apunto también—, pero es ingenuo pensar que, al ritmo que va la carrera frenética por una IA cada vez más poderosa, por muy rápido que aprendamos (es imposible) vayamos a poder salvar a una mayoría de esta ola acelerada de automatización.
Y fíjate que he dicho «la mayoría» porque es lo que realmente me interesa. La clave, para comprender el lío en el que nos estamos metiendo, es dejar de comparar lo que hacen las máquinas con lo que hacen los humanos más listos-listísimos de nuestra especie. Esa es una falacia, tiene trampa, y es lo que más suele hacerse cuando se abusa de frasecitas de este tipo: «la IA nunca reemplazará el conocimiento humano en su totalidad» o «siempre serán necesario humanos para resolver (algunos) retos complejos». Menuda tontería más obvia para esconder los peligros. Fíjate en las matizaciones de «en su totalidad» o «algunos», porque es así como discurre la semántica auto engañosa del tecno-optimista, o del que vende IA interesadamente.
Claro que nadie niega que habrá un nivel de tareas y retos al que no llegará la IA, pero no es lo mismo que esos problemas/retos humanos sean el 50% a que se reduzcan al 5%. En el primer escenario, todavía podemos convivir en armonía con las máquinas. En el segundo, ya podemos darnos prácticamente por sustituidos. Habrá solo una élite que pueda seguir disfrutando a tope de lo que la “refuerza como humano” porque sea más inteligente que la superinteligencia. Comportarse «como humanos», profesionalmente hablando, será un lujo. Antonio Ortiz sugiere algo parecido aunque, en contraste con mi lectura, lo plantea en positivo: «aquello por lo que estaremos a dispuestos a pagar más». En ese caso podremos decir todavía que el humano supera a la máquina, dado que existe ese 5% que aguanta el tipo, pero… ¿y qué hacemos con el 95% restante?, esa mayoría que es la que a mí verdaderamente me preocupa.
Sigamos. Una persona que tiene altas capacidades para, por ejemplo, resolver problemas complejos (algo que exige mucha formación previa) sentirá que si le automatizan el 80% de las heurísticas más sencillas para centrarse en el 20% más retador y molón, es un avance estupendo. Externaliza lo que ya sabe hacer, y se centra en lo que no. Pero, ¿y qué hacemos con esa mayoría que disfrutaba pensando y buscando soluciones para “problemitas” corrientes? ¿Les vamos a exigir ahora que se conviertan en expertos/as en CPS para que se centren en ese 20% de retos que todavía «siguen siendo humanos» (y por los que, según se insinúa, todo el mundo se va a pelear a collejazos)? Seamos sinceros, eso es inviable. Lo que va a ocurrir es que esa mayoría que se quedará atrás terminará usando los ChatGPT de turno para encontrar las respuestas que antes trataba de encontrar, mal o bien, por su cuenta. Eso también es «indefensión aprendida»: “¿para que voy a pensar yo, si —una y otra vez— el cacharro me da la respuesta correcta?”.
A menos terreno quede para hacer «cosas que nos hace humanos», menos posibilidades habrá de trabajar en eso, y de vivir de eso. Pero esto es cierto solo si seguimos compitiendo con las máquinas sin nada que proteja y ponga en valor lo humano. Por eso dije al principio que pronto tendremos que empezar a hablar de «discriminación positiva de lo humano». Sí, suena raro pero es así porque, insisto, este no es un reto tecnológico sino humanista, de contrato social y de regulación. Y esa es una decisión que está por encima de tanto determinismo tecnológico (interesado) que nos está volviendo gilipollas. También del interés propio de las empresas y sus tecno-élites.
Pondré un ejemplo bien sencillo, para que se me entienda. No tengo la menor duda de que vamos a un escenario en el que las máquinas terminarán haciendo un mejor #diseño que los humanos. Que serán mejor diseñadoras que las personas. Tal vez, de nuevo, un 2-5% de los/as profesionales que hacen diseño consigan todavía superarles. ¿Cuál es la solución a esto? Algunos dicen que si eso ocurre, por lógicas de mercado, significaría que ya no haría falta la profesión de diseñadores/as, y entonces aparecerá otro oficio al que podrán reciclarse. Ese margen se irá reduciendo, y reconvertirse tan rápido será cada vez más difícil. Y así seguiremos huyendo de un sitio a otro, en ciclos cada vez más cortos de reconversión ansiosa: «Vienen las máquinas, a ver qué nos queda que sea de humanos», nos proponen. Y este escenario no es nada descabellado cuando la idea de «superinteligencia» no solo se convierte en una meta (absurda y suicida) sino que se dan pasos muy serios en esa dirección. Las voces (autorizadas) que avisan de esa posibilidad se han multiplicado. Y te recuerdo lo que eso significa, toma nota: se acabó la supremacía del ser humano.
Entonces, ¿cuál puede ser la solución? Yo creo que será una combinación de varias cosas. No creo en una única solución. Pero sí que tengo claro que vamos a tener que, por «discriminación positiva de lo humano», poner en valor de alguna manera lo «human-made». Para eso, lo primero, tendrá que haber una normativa severa que obligue a declarar lo que se ha hecho con IA. Después, incentivos (de mercado y regulatorios) que premien lo «hecho por humanos». Y en algunas tareas o trabajos, incluso, prohibir el uso de la IA. Sé que esto de prohibir suena fatal, pero en la sociedad de hoy ya tenemos muchas cosas prohibidas que la mayoría acepta por autopreservación. Pues mi teoría es que la IA debería obligarnos a tomar medidas de ese tipo, también por autopreservación. No oculto que llegar a una regulación saludable de todo esto es un reto inmenso, nada fácil, pero tampoco lo era conseguir el milagro de la IA, y ahí lo tenemos.
Por otra parte (este es ya otro temazo que no cabe en este post), me cuestiono si hacer cosas que tienen algún grado de repetitivas no merece también que sea «de humanos». Cuando escucho la cantinela de que lo repetitivo es siempre tedioso y detestable, solo pienso en lo hipócritas que somos. Hay también mucho elitismo soterrado en esa idea, además de una evidente carencia de autoconocimiento. A ver, no podemos estar todo el tiempo haciendo cosas nuevas y diferentes. Al menos las personitas corrientes, necesitamos combinar tareas de todo tipo, para descansar el coco. En la práctica de rutinas y rituales (incluidos los profesionales) hay también mucha belleza y emoción humanas. ¿Esa parte la vamos a delegar también?
Por eso siempre hago esta pregunta, una y otra vez: Que una tarea o trabajo sea automatizable, ¿es razón suficiente para que sea sustituible por una máquina? Responder con responsabilidad a esta cuestión es capital. Es, como dicen en mi tierra, «el pollo del arroz con pollo», la esencia de una gestión humanista del futuro de la IA. Y para responderla bien, por favor, no lo hagas en piloto automático. Piensa correctamente, empieza a practicar eso de reforzar lo que te hace humano/a 🙂
NOTA: La imagen del post es del álbum de Google DeepMind en Pexels.com. Si te ha gustado el post, puedes suscribirte para recibir en tu buzón las siguientes entradas de este blog. Para eso solo tienes que introducir tu dirección de correo electrónico en el recuadro de «suscríbete a este blog” que aparece en la homepage. También puedes seguirme en la red social Bluesky o visitar mi otro blog: Blog de Inteligencia Colectiva. Asimismo, aquí tienes más información sobre mi último libro.
Joan
Los nativos y activos digitales quizá tengan otros puntos de referencia. Creo que crecer en lo que (hasta ahora) nos hace humanos nos da más opciones de plenitud personal. Si nos llenará o no el bolsillo dependerá de que otros quieran pagar por ello.
Personalmente apostaría por invertir en todo aquello que complementa a las máquinas…Nos seguirán fichando por aportar resultados y valor, en que parte nuestras tareas son humanas, delegadas o asistidas también es una decisión personal…
Gracias por abrir el impresindible debate
Amalio Rey
Lo que dices, Joan, es así. Los nativos y activos digitales ven en esto una oportunidad, hasta que se den cuenta que esa ventaja que creen tener se va a evaporar con lo rápido que se cierra la brecha humano-máquina. En mi opinión, falta perspectiva. Tú, que eres un humanista, sabes cómo afecta cerrar demasiado el «frame». Y en cuanto a lo que dices, «todo eso que complementa a las máquinas» se irá reduciendo, profesionalmente hablando, a menos que hagamos algo…
Stephen Coupland
Hello Amalio,
You have raised some valid concerns and issues which I believe that my initiative, the Cyborg Intelligence Network will help create humanity 2.0 and make many current concerns redundant. Link to paper is below
https://zenodo.org/records/14600758
Amalio Rey
Muy interesante, Stephen. Estoy revisando tu artículo. La verdad es que tenemos mucho hilo del que tirar en los argumentos que manejas. Gracias por compartir!!
Luis
No sé. Lean a Lipovetsky o a Paul Virilio. Puede que Baudrillard, también. Conectando puntos, todo el rato. Las cuestiones esenciales creo que están ahí, si tiramos hacia el humanismo, y las cruzamos con cuestiones básicas como la velocidad.
«Hacer» es el verbo determinante; y esta parte del comentario de David me ha hecho gracia: «Si la IA acaba sustituyendo la capacidad de raciocinio humano, significará que cualquier estúpido podrá ocupar cualquier cargo, por alto que éste sea, mientras pueda usar la IA como su oráculo.»: esto pasa desde hace dos mil veinticinco años, al menos, y sin que existiera la IA. No creo que haga falta desarrollar ni contextualizar más. El imperio de los estúpidos existe ya desde hace mucho tiempo. ¿Qué poder tuvieron siempre los estúpidos y los listísimos? El poder de hacer. Y ahora lo podrán ejercer muchísimo mejor. De hecho lo hacen ya. De hecho, siempre lo han hecho así. El horizonte de las IA lo único que hace es que en el «hacer» o «dejar hacer» surjan los abismos a una endiabladísima velocidad. Jean Giono sonreiría ante todo esto. Thomas Bernhard se sentaría en su sillón de orejas. Nosotros… miramos hacia nuestros trabajos y nuestras familias. ¿Qué otra cosa podemos hacer? ¿Enseñar a los niños a ser mejores que las máquinas porque hemos renunciado a enseñarles a ser mejores humanos, con todo lo que eso conlleva? No sé. Engañémonos si queremos. Y si no, prohibamos la estupidez…
Todo se reduce a resolver esta pregunta: ¿a qué velocidad queremos vivir y morir? No se lo preguntéis a la IA…
David
Por alusiones. Vale, entiendo tu punto, quizás necesitaba más espacio para explicarlo. Seguro que hay mucho estúpido gobernando empresas e instituciones sin necesidad de la IA. Lo que quería decir es que los «pillas» en el cara a cara, en una reunión pero si no abres la boca y basas todas tus respuestas y decisiones en la IA (no ahora, eh?, cuando sea capaz de hacerlo, que lo será) pues no tendremos la oportunidad de desenmascarlo.
Sí, es un ejemplo un poco absurdo o hasta extremo, pero como uso ChatGPT, de pago, mucho veo de lo que es capaz y me asusta un poco, la verdad. No por lo de ahora, porque falla bastante, pero estoy seguro que llegará. Me responde mejor ahora que hace 10 meses cuando me suscribí.
Pero estoy 100% en todo lo que dices. Quizás sí nos preocupamos mucho por nuestro futuro en términos de salario y todo lo demás y no pensamos un poco más allá. Da para reflexionar, sí.
Luis
Eso del «cara a cara» que comentas me parece interesante. Creo que remite a la confianza que, por un lado, tiene uno en lo que cree que sabe y, por el otro, en lo que cree que sabe el otro en función de lo que demuestra. Pero todo ello se clarifica en el momento en el que se «hace» algo. Entonces, los términos en los que establecemos la comparación, en principio, eran antes de persona-a-persona, anteayer de IA-a-persona y ahora de IA-a-IA (asunto DeepSeek-Nvidia)… Rápidamente, en este último reto de la comparación IA-IA (insisto en que la velocidad es la clave de todo esto, mientras el fondo de la cuestión sigue moviéndose en los mismos términos que siempre, esto es, verdad-mentira, confianza-desconfianza, hace-no hace, etc…), el personal se posiciona alrededor de un argumentario ideológico que, en cualquier caso, tiene sólo un punto en común: «es más barato» (o «eficiente», o X…). Amalio viene en el artículo a destacar el punto esencial del humanismo en todo este maremágnum, y lo hace con acierto… Pero, ¿no estamos por igual sujetos a imperfecciones los humanos? ¿Qué es lo que hay que desenmascarar? Lo que ha habido que desenmascarar siempre. En este punto, me voy a permitir un enfoque ehmmmm, digamos, religioso: «Por sus hechos los conoceréis». Y es cierto que por sus hechos los conocemos; tanto como para que en muchas ocasiones estemos dispuestos a aceptarlos, simplemente, porque reconocemos a las personas «que hacen» como representantes de nuestra cosmovisión (y fe, y ciencia). Y entonces estamos más dispuestos a… ¿preguntarnos de verdad a qué velocidad queremos vivir? No sé si hay elección a nivel global. Sospecho que no la hay. Los que mandan a nivel global (en realidad, no pueden ser muchos) son los que tienen el acelerador al alcance de sus pies. Pero, en fin, eso siempre ha sido así…
David
Sí, tienes razón Luís. Me estás haciendo pensar más de lo habitual. Pero me da la impresión que esta es la mayor ola que hemos vivido hasta ahora en el mundo, al menos de la tecnología (igual también de la humanidad, no me atrevo a decirlo abiertamente), porque todo el mundo se siente arrastrado a utilizarla, algunos le ven la parte de «menos costes» y muchos ven negocio en atizarla (cursos y conferencias, básicamente). Entonces ¿crees que podemos ponerle freno o irremediablemente nos vamos a ver todos arrastrados sin remedio? ¿qué podemos hacer para volver a ese humanismo? ¿regulación?
Amalio Rey
La única opción la comparto en el post: regulación + incentivos de mercado, para reforzar lo «human-made»… A esto añade, mucha educación que nos salve de nosotros mismos 🙁
Luis
David, se me hace casi imposible creer que esta ola —muy de acuerdo en tu percepción sobre la misma— no nos vaya a seguir arrastrando. A cada cual le llevará a una playa determinada (espero que no a islas desiertas), en función de su marco profesional. Creo que esto será así porque es el propio usuario el que valida (alimenta, consume, etc…) este estado de cosas; y lo va a seguir validando, pienso. Para volver al humanismo, hay que recuperar la educación humanista, los valores humanistas y las estructuras sociales humanistas. Y en esos territorios, llevamos perdiendo batallas ya muchas décadas. Todas estas batallas son las que ha ganado la tecnología. Y las va a seguir ganando; en lo global, las va a seguir ganando.
La opción que plantea Amalio está muy bien, porque tiene una base de esperanza y positividad, y bastantes dosis de confianza en el ser humano. Pero, ¿al alcance de quiénes está hoy día el poder de vivir despacio?
Amalio Rey
David, ninguna duda con que no estamos pensando en el más allá. Vamos como pollos sin cabeza al objetivo finalista de hacer las cosas más rápido, compitiendo todo el tiempo, mientras facilitamos a la maquinita que nos sustituya más rápido. Es una auténtica locura. Tampoco ninguna duda de que las capacidades de la IA son infinitas, y que vamos a llegar a la Superinteligencia. En ese momento nos daremos cuenta de la cagada (o antes), y será tarde, si no hacemos algo gordo antes. Soy pesimista (y yo no suelo serlo en nada), la verdad.
Amalio Rey
Exacto, Luis, este tema de la velocidad es crucial. Llevo tiempo pensando y pensando en esto. Todas las innovaciones que se están impulsando, y en especial la IA, ponen el centro en apretar el acelerador, en tratar de hacer las cosas más rápido. Es un paradigma endiablado de esta época, la obsesión finalista. A mí eso me parece una locura, falta perspectiva al obsesionarse con la aceleración. Lo peor es que con tanta velocidad, las cosas pierden toda su gracia: vamos directo al resultado buscado, y no nos damos tiempo ninguno para disfrutar del proceso. Y eso penaliza la experiencia de vida. No lo entiendo, vamos como borregos a un modelo que devalúa la felicidad del logro conseguido como un camino.
Ana Erostarbe
Muy interesante la reflexión, Amalio, y las preguntas que planteas. Es difícil no inquietarse con lo que ya está encima de la mesa. El mundo que conocíamos ya no existe y el que conocemos hoy no existirá mañana. La velocidad lo hace insufrible.
El otro día le pregunté a Chat GPT cuál era su tipo de personalidad MBTI porque sus respuestas tienen un tono familiar, además de más empático que el de la mayoría de las personas que conozco. Su primera respuesta fue que en tanto que no es humano carece de… A mi segunda pregunta respondió que es una combinación de INTJ (análisis predominante) y un INFJ (empatía, diplomacia), pero que podía adaptarse a lo que indicara. Demasiado perfecto y pavoroso.
En otro orden, poca duda de que el “human-made” llegará. Desafortunadamente llevará tiempo comprender en la práctica su valor. Un tiempo que no tenemos. Donde reina la tiranía de la rapidez, la conciencia es un lujo.
Enrique
Vale, si la propuestas es la discriminación positiva de lo humano porque la IA será imbatible, habrá que desarrollar mecanismos de blindaje de actividades “human made”. En esas tareas no podrá entrar la IA, porque si no, ya no son plenamente humanas, y me temo que si se mejoran porque hacen un uso parcial de la IA serán un emplaste poco sostenible. Digamos que los cuidados a tercera edad se excluyen de IA y sólo se prestan por humanos. Tendremos residencias de tercera edad que quizá se gestionan con IA en la mayoría de sus procesos, pero que instruyen a humanos para que atiendan a humanos? No se convierte el humano cuidador en un esclavo de la IA? (pienso en los conductores de uber, los repartidores de glovo, …) Es un ejemplo trivial, pero ilustra que la discriminación positiva será tremendamente compleja, no será muy motivante, tendrá consecuencias y no parece una solución estable ni a medio plazo. Más bien creo que hay que unirse a la IA y tener un modelo de implantación responsable, y unas políticas de entrenamiento y actividad alternativas de la población que vaya a ser excluida. Y por supuesto de financiación de la población que resulte redundante o inadaptada, a través de mecanismos con la ampliación del ingreso mínimo vital. Ya lo han dicho muchos pensadores antes, como Kai fu Lee en su libro AI superpowers. La IA es una fuente más de desigualdad en la inadaptación al tiempo de toda la humanidad a una tecnología que compite con los humanos
Amalio Rey
Hola, Enrique. Un placer verte aquí. Lo que planteas es complejo, como lo que propongo yo. Tienes razón, pero creo que el enfoque no va a poder ser estrictamente binario. Creo que habrá grados de «human-made». En un trabajo determinado, ciertas tareas serán nucleares para el valor generado, y esas serán las que se protejan vía discriminación positiva de lo humano. Las que sean más periféricas, podrían delegarse a la IA. Sé que no es fácil dibujar los límites, pero veo la tendencia más por ahí, aunque puedo estar equivocado. En el ejemplo que pones de «cuidados a la tercera edad», ¿por qué una persona que está presente, que está prestando cuidados in situ, con todo el cariño del mundo, se ayude de alguna app de IA, que le asista para resolver dudas o afinar servicios? OJO, tu idea de «unirse a la IA» es lo mismo que estoy diciendo, porque se acepta como «copiloto» en aquellas tareas que tenga sentido. La cuestión es poner límites con criterio.
Amalio Rey
Así es, Ana, «demasiado perfecto y pavoroso». Tal cual, es muy inquietante. Ojalá que tengas razón de que el «human-made» llegará, y ojalá que no sea demasiado tarde.
Julen Iturbe-Ormaetxe Zamarripa
Menudo lío en el que estamos metidos. No hay duda de que el progreso se está vistiendo de distopía a marchas agigantadas. A veces me pregunto si sencillamente es que (en mi caso al menos) al cumplir años renegamos de lo que excede nuestra comprensión del mundo en que crecí y que ahora ha mutado en algo que me supera.
No sé. Me siento atrapado en un enredo inmenso. ¿Cada vez es más complicado ser «humano»?
David
jeje… tengo la misma sensación con la edad y la comprensión. Me cuesta horrores seguir el ritmo.
Amalio Rey
Siempre, siempre, me hago esa pregunta, Julen. Seguro que estoy condicionado por la edad, pero trato de tomar distancia y huir de la trampa generacional. Seguro que en gran parte no lo consigo, pero tampoco me parece justo que todo se explique por eso. Yo también me siento atrapado en ese enredo que comentas, y en la pregunta que haces tan acertada
Víctor
Una gran reflexión de un tema que todo son especulaciones. Si miramos otras tecnologías que han facilitado el pensar, como escribir, las matemáticas o el dinero, al final los humanos nos acabamos inventando nuevas capas de abstracción, consiguiendo quee lo que hacen las máquinas nos parece lo más obvio y básico.
Si nos salimos del campo tecnológico, que al final es el coto de unos frikis, vemos que la sanidad cada vez necesita más tiempo para formar a los médicos (y eso no va a reducirse con la IA porque el médico tiene que hacer muchas cosas no automatizables), los científicos necesitan más tiempo para hacer descubrimientos, los profesores tardan más en formarse bien, cualquier cantante, escritor, pintor, necesita más tiempo para aprender.
Así que el límite creo que lo marcará nuestra velocidad de aprender y de usar el conocimiento.
Amalio Rey
Hola, Victor. Lamentablemente creo que con la IA, no podemos extrapolar lo ocurrido antes. Esta es otra liga, con otra lógica. Para mí los límites no son nuestra velocidad de aprender, porque en velocidad no vas a poder competir con la IA. Estamos viendo cómo se come la brecha humano-máquina, y eso no va a parar, porque nos han metido en una competencia empresarial y geopolítica para ver «quién la tiene más grande». De hecho, el espíritu de este artículo es que salvar la brecha no va a ser posible para el 80-90% de los humanos. Solo conseguirá mantenerse por encima de la IA una élite, que será cada vez menor. Y lo digo por evitar algo que está pasando: echarle la culpa a los humanitos de no espabilar y aprender (más) rápido (que las máquinas). Eso, ya verás, será imposible para la inmensa mayoría. Y el problema de fondo, que pone en cuestión tu lectura, es que la IA significa una cosa TOTALMENTE DISTINTA a las disrupciones tecnológicas que habíamos visto antes. Si no se entiende esto, seguiremos cayendo en el error de extrapolar.
Sergio Rossi
No se puede hacer una extrapolación lineal, pero si comparar los impactos, y no creo que el impacto social de la revolución industrial o la aparición de los ordenadores e internet hayan sido menores que lo que va a desencadenar la IA. Somos nosotros y nuestras competencias, que con tanto esfuerzo aprendimos, las que quedan obsoletas y por eso nos cuesta terriblemente asimilar este nuevo cambio.
Por otro lado, mi impresión es que la IA se va a transformar en un excelente asistente y va a potenciar nuestro desarrollo cerebral al igual que sucedió con la calculadora, las PC e Internet. Lo estamos pensando con cerebros actuales, las próximas generaciones van a tener otra cabeza. Así que, si bien creo que el impacto social y transformativo va a ser fuerte, lo de restringir su aplicación no tiene sentido, como no lo tuvo en el pasado con ninguna nueva tecnología. Abrazo.
Amalio Rey
Insisto en que son situaciones muy diferentes, y que la IA es la madre de las disrupciones, porque afecta el núcleo de lo humano, la inteligencia. Otra enorme diferencia entre la IA y los ejemplos que pones de la revolución industrial o los ordenadores es el cortísimo plazo en que se está produciendo la disrupción. A más abrupto y acelerado es un cambio tan drástico, más dramático y más riesgos humanos. Pero, me repito, la IA es la innovación tecnológica que más pone en cuestión lo que nos hace humanos (esto, supongo, no lo negarás), una cosa así no tiene parangón en la historia de la humanidad. Y, además, en tan corto tiempo
Sergio Rossi
Sí, puedo ver las diferencias, pero no me alcanza para modificar mi percepción que mencionaba en el posteo anterior. Si no fuera disruptivo, no sería una revolución. De todas formas, estamos haciendo futurología. Yo no veo que ponga en cuestión nuestra humanidad, nos fuerza a replantear lo que considerábamos esencialmente humano, si es que se puede hablar de algo así. Y a reinventarnos. De lo que estoy bastante seguro, es que una limitación no es posible ni una solución.
David
Hola Sergio
Creo que en dos cosas que dices está el asunto:
– estamos haciendo futurología. Tanto los que están a favor como los que están en contra y los que tenemos muchas dudas
– lo de la limitación, aunque sí fuera técnicamente posible, tampoco estoy seguro que resolviera alguna cosa … a largo plazo, digo.
Yo he vivido estas «revoluciones» (y por orden cronológico):
– el ordenador personal y el software que lo acompañó (hojas de cálculo, procesadores de texto, etc…)
– el CD-Rom
– el móvil
– el email e Internet (y foros, blogs, etc…)
– las redes sociales
Y ahora ésta y mi percepción, usándola casi a diario y pagando la suscripción, es que es muy diferente y mucho más disruptiva que cualquiera de las anteriores. No tocará otra que adaptarse, por supuesto, pero no estoy seguro de cómo será esa adaptación viendo lo que es capaz de hacer.
Ayer vi en LinkedIn un usuario que compartía como su hija había utilizado la IA para resumir un libro de lectura de 3º de ESO. No la justificaba pero decía que, al menos, el prompt estaba bien escrito. ¿Os imagináis que en el futuro la mayoría de gente no lea libros porque pide resúmenes? y ¿que estos después sean tertulianos o «expertos» que los comentan? ¿que pase lo mismo con idiomas? ¿con sentencias judiciales? Una de las diferencias de la IA con lo anterior es que las anteriores te solucionaban problemas cotidianos y te hacían más productivo y ésta hace eso y, además, hace cosas por ti o que deberías hacer tu. Nos quedará la parte de humanidad pero ¿es posible que acabe haciéndolo también?
A mi me aterra un poco lo que veo que es capaz de hacer y lo que me imagino que podría hacer, la verdad.
David
Lo comentábamos ayer pero lo dejaría por aquí también.
Si la IA acaba sustituyendo la capacidad de raciocinio humano, significará que cualquier estúpido podrá ocupar cualquier cargo, por alto que éste sea, mientras pueda usar la IA como su oráculo. Me imagino yendo a reuniones, tomando notas, volver al despacho a preguntarle a su IA y volver a la reunión para dar las instrucciones.
Por poner un ejemplo fácil: esas apps que dicen que traduce en tiempo real, e imitando tu voz, y que te permitirá pedir cualquier cosa en un restaurante en medio de Pekín. Vale, hasta ahí todo bien pero ¿qué pasa si la usan para dejar de estudiar idiomas? Total, ya traduce.
Pero para no llegar a eso, la mayoría de los que empiezan a vivir de la IA (con cursos, por ejemplo) dice que hay que aplicar «su uso ético» y ahí es dónde creo que falla la cosa porque me temo que se le dará cualquier uso que le salve a uno de lo que sea, con independencia de que sea ético o no. Así de mal veo la cosa y así de pesimista soy con esta fiebre que no ha entrado con la IA.
Amalio Rey
Tengo tus mismas dudas, David. Exactamente las mismas, compañero