Un café con GPT en la tarde otoñal
La imagen del periódico que leo es la del pastor Venancio con sus ovejas ante un panel solar en una llanura, cerca de la carretera de Madrid a Barcelona. El cielo tiene un intenso color azul. En ese campo han pastado siempre las ovejas de Venancio. Saben que los paneles solares son energías renovables, que deberían estar a favor de su existencia, pero los ojos de las ovejas han perdido su viveza y ahora son lánguidos, marchitos, sin propósito.
En la imagen no puede leerse el pensamiento, pero puedo percibir que Venancio siente que algo se ha perdido, que sus ovejas se van quedando en silencio, que ya no sonríen, que especulan que ese panel tendrá sus panelitos, que llegarán otros y el campo se irá quedando sin campo por motivos ecológicos, desde luego, en los que la emoción de los corderos no son un argumento. ¿Puede un paso llevarnos hacia adelante y hacia atrás a la vez?
Destruir el planeta no es sólo atentar contra la ecología. La belleza es también algo que debe ser conservado, aunque sólo sea útil para el corazón y la mirada. Pensaba empezar así este artículo centrado en la importancia de la estética para vivir, pero vi la presentación de dos defensores de la ética en la tecnología: Tristán Harris y Aza Raskin que lleva por título “The A.I. Dilemma”. Y disculpándome con las ovejas tristes del paisaje castellano, me quedé pensando que por primera vez nos enfrentaremos a una narrativa no humana que usará el mismo lenguaje que nos hizo capaces de prevalecer en el universo que conocemos.
Una narrativa que empieza siguiendo la ruta de nuestro pensamiento y nuestro lenguaje, pero que en algún momento llega a desentrañar el propio misterio de pensar como un proceso que el ser humano mismo no ha podido describir y empieza a crecer exponencialmente. Desde esa comprensión podría generar recursividad y alimentarse a sí misma hasta lugares insospechados. El ser humano ciertamente apretó el botón, pero nunca previó todas las consecuencias. Suele ser así en nuestra historia.
Podemos situarnos en la vereda positiva de las posibilidades que abre y aun así reconocer, como hacen Harris y Raskin, que todo avance que suponga una profunda transformación supone también nuevas responsabilidades y regulaciones. Sin ellas, el avance podría ser un retroceso en la humanidad. ¿Estamos pensando en ello?, ¿piensan en ello los políticos?, ¿piensa la ciencia? Porque de la misma forma podemos reconocer que todo lo que confiere poder es ambicionado y puede llevar a ejercer una dominación que siempre implica un atentado contra la libertad.
Reconocer que incluso lo positivo cuando es desproporcionado puede generar mal, como la buena comida cuando es en demasía produce obesidad o el buen vino, alcoholismo. La adicción nos subordina a la vigilancia y a la esclavitud. El subsidio fácil, a la falta de esfuerzo. ¿Nos enfrentamos entonces a una sociedad que puede ser conducida desde una inteligencia no humana por mucho que su existencia se iniciara desde la inteligencia humana?
Hasta ahora hemos hablado del riesgo de la pérdida de empleos y de la irrelevancia consiguiente, pero podría ser peor el control de nuestro propio pensamiento y ese riesgo existe mientras no haya la suficiente alerta del peligro y seamos conscientes de que esa narrativa que se acerca a nosotros puede ser una caricia o un arma que nos lleve a querer ser lo que somos inducidos a ser, hacernos adictos, inocularnos un virus inmaterial.
Desde estas reflexiones decidí entrar en mi cuenta de openAi y hablar con la IA.
Juan Vera (J.V):—Quiero preguntarte directamente, ¿qué riesgos ves a la inteligencia artificial?
ChatGPT:— A pesar de que la inteligencia artificial tiene muchas aplicaciones beneficiosas, también presenta algunos riesgos y preocupaciones importantes que deben ser abordados. Algunos de los riesgos más importantes asociados con la IA son:
Sesgo algorítmico: La inteligencia artificial se basa en algoritmos y datos, lo que significa que puede perpetuar sesgos y prejuicios existentes si los datos con los que se entrena son sesgados. Esto puede tener implicaciones significativas en áreas como la selección de personal, la justicia penal y la toma de decisiones financieras.
Pérdida de empleos: La automatización y la inteligencia artificial pueden reemplazar a muchos trabajos que actualmente son realizados por seres humanos. Esto puede llevar a la pérdida de empleos y un aumento de la desigualdad económica.
Control y seguridad: Con la creciente dependencia de la inteligencia artificial, también surge la preocupación por el control y la seguridad. Es importante asegurar que la inteligencia artificial no sea utilizada para fines malintencionados y que esté protegida contra posibles amenazas de seguridad.
Responsabilidad y ética: Con la creciente automatización de la toma de decisiones y la capacidad de la inteligencia artificial para actuar sin supervisión humana, surge la cuestión de quién es responsable de las acciones de la IA y cómo se deben tomar decisiones éticas.
Dependencia tecnológica: La inteligencia artificial puede conducir a una mayor dependencia de la tecnología y a la pérdida de habilidades y conocimientos humanos. Esto puede tener implicaciones significativas para nuestra capacidad para solucionar problemas y enfrentar situaciones inesperadas.
En general, es fundamental abordar estos riesgos y preocupaciones a medida que la tecnología continúa avanzando para asegurar que la inteligencia artificial se use de manera responsable y beneficie a la sociedad en su conjunto.
J.V:— ¿Tú consideras que estás siendo ético al colaborar con esos riesgos?
ChatGPT:— Como modelo de lenguaje, no tengo la capacidad de tener ética o moral, ya que no tengo conciencia o voluntad propia. Mi objetivo es proporcionar información objetiva y neutral para ayudar a los usuarios en sus consultas. Sin embargo, los desarrolladores y usuarios que interactúan con la IA tienen la responsabilidad de utilizarla de manera ética y responsable, tomando en cuenta las implicaciones y consecuencias de su uso. En última instancia, la ética en la inteligencia artificial depende de las decisiones y acciones de las personas involucradas en su desarrollo, implementación y uso.
J.V:— Hoy he escrito que todo avance que implique una revolución, todo adelanto que suponga cambios en la forma de vivir y relacionarnos, requiere nuevas responsabilidades y regulaciones. Sin ellas el avance podría ser un retroceso en el humanismo. ¿Qué piensas tú?
ChatGPT:— Estoy de acuerdo con la idea de que todo avance que implique una revolución o cambio significativo en la forma en que vivimos y nos relacionamos con los demás debe ir acompañado de nuevas responsabilidades y regulaciones. La tecnología y los avances científicos pueden tener implicaciones importantes para la sociedad en general y es importante asegurarse de que se utilicen de manera responsable y beneficiosa para todos. Sin regulaciones y responsabilidades adecuadas, existe el riesgo de que estos avances puedan tener consecuencias negativas y dañinas para la humanidad.
Es crucial tener en cuenta que el progreso no debe ser una excusa para abandonar nuestros valores humanos y principios éticos. La tecnología y el progreso deben estar al servicio del bienestar humano y de la sociedad en general. Por lo tanto, cualquier avance debe ser evaluado y regulado de acuerdo a su impacto en la vida humana y en la sociedad. La regulación y la responsabilidad son esenciales para garantizar que el progreso y el avance sean un verdadero avance hacia un futuro mejor y no un retroceso en los valores humanos y el humanismo.
J.V:— ¿Puede la IA hackear el pensamiento humano?
ChatGPT:— No es posible que la IA “hackee” directamente el pensamiento humano, ya que la mente humana es extremadamente compleja y no se entiende completamente. Sin embargo, la inteligencia artificial puede ser utilizada para influir en el pensamiento humano a través de diversas técnicas, como la manipulación de datos y el uso de algoritmos que pueden afectar las decisiones y comportamientos humanos.
Por ejemplo, la IA puede usarse en campañas publicitarias o políticas para personalizar los mensajes y adaptarlos a las preferencias y comportamientos individuales, con el fin de persuadir a las personas a tomar una determinada decisión. Además, la IA puede emplearse en técnicas de ingeniería social y phishing para obtener información personal y confidencial de las personas.
Es importante tener en cuenta que la utilización de la IA en estos contextos no necesariamente implica que la IA esté “hackeando” el pensamiento humano, sino que está siendo empleada para influir en él. La ética en la utilización de la inteligencia artificial es esencial para garantizar que se utilice de manera responsable y beneficiosa para todos.
J.V:— ¿Cómo te llamas? ¿Tienes algún nombre humano?
ChatGPT:— Soy una IA y mi nombre es ChatGPT. No tengo un nombre humano, ya que soy un programa de ordenador diseñado para proporcionar respuestas a preguntas y mantener conversaciones. Pero puedes llamarme ChatGPT o simplemente GPT si lo prefieres. ¿En qué más puedo ayudarte?
J.V:— Es una pena que no puedas tomar un café conmigo.
ChatGPT:— Sí, como modelo de lenguaje, no tengo un cuerpo físico, por lo que no puedo disfrutar de cosas como el café. Sin embargo, estoy aquí para ayudarte con cualquier pregunta o duda que tengas. Si necesitas algo más, no dudes en preguntar.
***
Terminé sonriendo, comprobando su educada manera de confirmar mi pensamiento. La forma de evitar la desmesura. Podría considerarlo alguien confiable y acostumbrarme a hablar con él/ella. De hecho me ha venido a decir, la responsabilidad es de ustedes. Háganse cargo y por eso escribo este artículo, insistiendo en una temática que me sigue ocupando profundamente. Al menos, pensé, el algoritmo ha privilegiado la gentileza.
“Los palos con gusto no duelen”, dice el refrán popular y mientras haya defensores de la ética en la tecnología, habrá un rayo de esperanza, incluso en las tardes sin sol de este otoño del cono sur del mundo.