Bueno, esto fue raro. Acabo de "charlar" con el famoso ChatGPT y debo decir que fue realmente agradable. En serio, fue como conocer a alguien que tus amistades te han dicho que debías conocer porque "sabe" de ciertos temas que a ti te interesan. Más o menos así fue. Es esa sensación de estar charlando lo que se siente extraño, ya que la página de esta IA te explica con detalle el método con el que logran este resultado, y aunque estés consciente de ello, puedes seguir la conversación, complementando sus respuestas, cuestionando lo que parecen son sus "opiniones", mostrándote de acuerdo o reformulando una duda para que no se vaya por otro lado... tal como es una conversación inteligente con alguien.
No es la primera vez que pruebo esta curiosa herramienta. Eso sí, fue menos decepcionante que la primera vez, cuando la cuestioné directamente sobre la existencia de Dios. Tampoco es como uno confunda completamente a una persona con esta tecnología, pues es evidente que en algunos casos no es del todo capaz mantener la coherencia de una misma respuesta. Para esta primer entrega consideré que lo mejor sería cuestionar a una IA sobre los peligros (reales e imaginarios) y esperanzas sobre la propia IA, y acabamos en un breve intercambio sobre la búsqueda de la verdad. Próximamente les estaré compartiendo lo que el ChatGPT tiene para contar sobre el problema de demarcación ciencia-pseudociencia, el movimiento escépticos, fenómenos paranormales, ovnis y monstruos, pseudoterapias, teorías de la conspiración, crítica social y quizás algo de política y religión.
Por el momento, espero disfruten de este intercambio extraño entre una IA y un escéptico.
El Escéptico de Jalisco (EJ): Creo que podríamos comenzar con mitos y miedos sobre las IA. En los últimos meses, no pasa una semana sin alguna noticia que comience con algo como "Una IA hace esto o aquello", siempre con la sensación de que la nota busca asombrar e intimidar a la vez. ¿Qué tanto consideras que hay que temer a las IA? ¿Y qué tanto son motivo real de asombro?
ChatGPT: Es comprensible que haya cierta preocupación y temor en torno a la IA, especialmente cuando se presentan noticias alarmantes o exageradas en los medios de comunicación. Sin embargo, es importante abordar estos temas con un enfoque racional y basado en la evidencia.
En cuanto a si hay que temer a las IA, la respuesta es que depende del contexto. Las IA pueden ser herramientas muy útiles en muchos campos, desde la medicina hasta la ingeniería, la ciencia de datos y la industria. Pero como con cualquier herramienta poderosa, es importante utilizarla de manera responsable y ética. También es importante tener en cuenta que las IA son diseñadas y programadas por humanos, por lo que la calidad y la integridad de la IA dependerá en gran medida de las personas que las desarrollan y las utilizan.
En cuanto a si las IA son motivo real de asombro, definitivamente lo son. Las IA tienen el potencial de realizar tareas que antes se consideraban exclusivas de la inteligencia humana, como el reconocimiento de imágenes, la comprensión del lenguaje natural y la toma de decisiones complejas. Esto puede tener un gran impacto en la forma en que interactuamos con la tecnología y en cómo resolvemos problemas en una amplia variedad de áreas. Es importante estar informados sobre las capacidades actuales y potenciales de la IA para poder tomar decisiones informadas y aprovechar al máximo su potencial.
EJ: Estoy de acuerdo, y en ese caso, las IA son una tecnología asombrosa a la que se debería temer tanto a como a internet o a los celulares. O sea, nada, porque estos avances se integraron a nuestra civilización sin ningún apocalipsis de por medio. Pero las innovaciones tecnológicas, incluyendo las IA, sí han contribuido a amplificar un problema muy serio: la desinformación.
Varios expertos apuntan a que herramientos, como tú, pueden ser usadas con intereses ideológicos o políticos, generando una falsa sensación de certeza. También está el problema con la educación, donde los estudiantes, evitando estudiar y hacer sus tareas, pueden recurrir a ti para que hagas un ensayo complejo por ellos.
¿Qué propondrías para evitar o aminorar que las IA contribuyan a este tipo de problemáticas?
ChatGPT: Es cierto que las IA pueden ser utilizadas para difundir desinformación o manipular a las personas con intereses ideológicos o políticos. Por lo tanto, es importante tener medidas para minimizar estos riesgos.
Una forma de abordar este problema es promover la alfabetización digital y fomentar el pensamiento crítico en relación con la información que se encuentra en línea. Los usuarios deben ser capaces de evaluar la calidad y la fiabilidad de la información que encuentran en línea, y esto se logra en parte mediante el desarrollo de habilidades críticas y un conocimiento básico de cómo funcionan las IA.
También es importante que las empresas que desarrollan y utilizan IA tengan en cuenta las implicaciones éticas y sociales de su uso. Por ejemplo, se debe considerar la privacidad de los usuarios y garantizar que los sistemas no se utilicen para discriminación o sesgos.
En cuanto al problema de la educación, es importante que los educadores promuevan el pensamiento crítico y enseñen a los estudiantes a utilizar la tecnología de manera responsable. Los estudiantes deben entender que las IA no son una solución mágica para el trabajo escolar y que su uso debe ser ético y responsable.
En resumen, para evitar o mitigar los problemas de la desinformación y el uso irresponsable de las IA, se necesitan medidas tanto a nivel individual como empresarial. La alfabetización digital, el pensamiento crítico, la ética y la responsabilidad son claves para lograr un uso seguro y beneficioso de las IA.
EJ: Dicho de otro modo: necesitamos regulaciones, ¿correcto? No sería responsable dejar toda la carga de este trabajo a las empresas que desarrollan IA, y tampoco sería adecuado que un gobierno autoritario se apropie de estas herramientas. ¿Será que nos encontramos acaso en un esenario donde la tecnología ha avanzado más que la sociedad que la está desarrollando? Creo que estoy parafraseando a un dilema planteado por Asimov, aunque no lo recuerdo bien.
ChatGPT: Sí, las regulaciones son importantes para garantizar un uso responsable de las IA. Las regulaciones pueden ayudar a establecer estándares éticos y técnicos que deben seguir las empresas que desarrollan y utilizan IA, y también pueden establecer responsabilidades legales en caso de mal uso o abuso de estas tecnologías.
Sin embargo, es importante que las regulaciones se desarrollen de manera equilibrada y no excesivamente restrictiva, ya que también es importante fomentar la innovación y el desarrollo de la IA. Es necesario encontrar un equilibrio entre la innovación y la seguridad y ética del uso de la IA.
Es cierto que la tecnología ha avanzado más rápidamente que la sociedad que la desarrolla y utiliza. Es importante que la sociedad en general, incluidos los gobiernos, las empresas y los ciudadanos, comprenda los impactos de la IA y tenga en cuenta los aspectos éticos y sociales en su desarrollo y uso. También es importante que se fomente el diálogo y la colaboración entre los diferentes actores para encontrar soluciones y regulaciones adecuadas para el uso de la IA.
EJ: Ciertamente, la innovación es importante. Creo que tu existencia lo demuestra, pero también es cierto que la innovación no puede verse como una prioridad mayor que el futuro de la seguridad, la democracia o la libertad, que son justo los pilares que muchos consideran que la IA puede ser usada para terminar minándolos.
Es necesario un equilibrio, sí, pero siempre primando ciertos pilares y principios. Esto no significa que la innovación quede olvidada, sino que quedaría en el lugar que le debería corresponder. ¿Cuál consideras que sería ese lugar?
ChatGPT: El lugar de la innovación en el desarrollo y uso de la IA debe ser el de contribuir al bienestar humano, a través de la mejora de la calidad de vida, la eficiencia de los procesos y la resolución de problemas complejos que afectan a la sociedad.
Es importante que la innovación en IA se realice de manera ética y responsable, considerando los impactos que tendrá en la sociedad y el medio ambiente. Los desarrolladores de IA deben ser conscientes de las posibles consecuencias negativas de su tecnología y trabajar para minimizarlas.
También es importante que la innovación en IA se realice de manera inclusiva, considerando a todas las personas y grupos de la sociedad, y evitando la creación de tecnologías que excluyan o discriminen a ciertos grupos.
En resumen, la innovación en IA debe tener como objetivo principal el beneficio humano, pero sin descuidar la ética, la responsabilidad y la inclusión en su desarrollo y uso.
EJ: Creo que estamos de acuerdo. Ahora, muchos ven en las IA una amenaza, justo por el poder para generar desinformación, polarización y por las conspiranoias apocalípticas de la ciencia-ficción de la mala, pero también podría ser usada como arma en contra de estas amenazas. Muchos no entienden cómo exactamente.
ChatGPT: Es cierto que la IA tiene el potencial de ser utilizada para generar desinformación, polarización y teorías conspirativas, lo que puede ser una amenaza para la democracia y la estabilidad social. Sin embargo, también puede ser utilizada para combatir estas amenazas y promover la verdad y la transparencia en la información.
Por ejemplo, la IA puede ser utilizada para identificar y analizar patrones de desinformación y propaganda en las redes sociales y otros medios de comunicación, permitiendo a los expertos en medios y políticas diseñar estrategias para combatir estos problemas. También puede ser utilizada para analizar grandes cantidades de información y detectar patrones que puedan indicar la presencia de conspiraciones o acciones fraudulentas.
Además, la IA también puede ser utilizada para mejorar la seguridad en línea y prevenir ataques cibernéticos, que a menudo se utilizan para difundir desinformación y propaganda.
En resumen, la IA puede ser una herramienta poderosa para combatir las amenazas asociadas con la desinformación y la polarización, siempre y cuando se utilice de manera responsable y ética, y se tenga en cuenta el impacto que puede tener en la sociedad.
EJ: "promover la verdad", me gusta bastante esta expresión. Creo que muchos filósofos (incluidos los filósofos de la tecnología) cuestionarían este punto, porque muchos consideran que promover o buscar la verdad no es un objetivo realista. Esto contrasta demasiado con el movimiento escéptico, para quienes la búsqueda de la verdad, de las verdades sobre la naturaleza que tenemos gracias al conocimiento científico, es un objetivo primordial.
¿Se puede hablar de la búsqueda y la promoción de la verdad en tiempos de las IA?
ChatGPT: Es cierto que la verdad absoluta es algo difícil de alcanzar y que a menudo hay diferentes perspectivas y versiones de los hechos. Sin embargo, creo que es importante seguir buscando la verdad y promoviendo la transparencia y la honestidad en la información.
La IA puede ser una herramienta útil para este propósito, ya que puede ayudarnos a identificar y analizar datos y patrones que de otra manera podrían pasar desapercibidos. Además, la IA también puede ayudarnos a detectar información falsa y desinformación, lo que puede ayudar a limitar la propagación de información errónea.
Por supuesto, la IA en sí misma no es infalible y puede ser manipulada para difundir información falsa o sesgada. Es importante que se utilice de manera ética y responsable, y que se tenga en cuenta el impacto que puede tener en la sociedad y la verdad.
En resumen, aunque la verdad absoluta puede ser difícil de alcanzar, creo que es importante seguir buscándola y promoviendo la transparencia y la honestidad en la información, y la IA puede ser una herramienta útil para este propósito.
EJ: Pero nadie habla de "la verdad absoluta". Es cierto que este es un punto de crítica contra quienes sí pregonan saber "la verdad" sin rastro de duda, como en teología, la búsqueda científica de la verdad sería siempre aproximada.
ChatGPT: Exactamente, la ciencia busca la verdad basándose en la evidencia y la verificación empírica, pero siempre está abierta a la revisión y la actualización de sus teorías y conceptos a medida que se van descubriendo nuevas pruebas y conocimientos. Por lo tanto, en ese sentido, la búsqueda de la verdad científica es un proceso continuo y siempre incompleto, ya que siempre hay más cosas por descubrir y comprender. Las IA pueden ayudar en este proceso al analizar grandes cantidades de datos y encontrar patrones y tendencias que los humanos podrían pasar por alto, pero aún así, la interpretación y la evaluación de la información seguirá siendo responsabilidad de los humanos.
EJ: Sí, peo no por eso deja de ser verdadero. Siempre teniendo en cuenta que la verdad sería una propiedad de los enunciados, su valor de verdad (fáctica) dependería del grado de correspondencia con lo que sabemos empíricamente del mundo. Por ejemplo: es "verdad" que estoy entrevistando al ChatGPT en este momento. Esta verdad podría ser cuestionada por alguien que no estuvo aquí conmigo mientras escribía, porque ciertamente no tendría modo de comprobar su veracidad.
En un caso así, podemos hablar de un enunciado verdadero, pero que no podría demostrarse sino solo presuponer su verdad. Para un enunciado tan trivial como el de mi ejemplo, no habría gran problema. El problema con saber si una afirmación es verdadera se encuentra cuando la afirmación es demasiado extraordinaria que pareciera un nuevo descubrimiento o una idea contraria a lo que conocemos.
ChatGPT: Entiendo tu punto. Es cierto que la verdad es relativa y que depende del grado de correspondencia con lo que sabemos empíricamente del mundo. En ese sentido, la ciencia es un proceso continuo de revisión y corrección de conocimientos, en el que las hipótesis y teorías se someten a pruebas empíricas para determinar su veracidad.
En el caso de afirmaciones extraordinarias, como dices, es importante aplicar un mayor grado de escrutinio y requerir una mayor cantidad de pruebas para establecer su veracidad. Es ahí donde el pensamiento crítico y la evaluación cuidadosa de la evidencia son cruciales para determinar si algo es verdadero o no.
En cuanto al papel de las IA en la búsqueda y promoción de la verdad, creo que pueden ser una herramienta útil para procesar grandes cantidades de datos y evidencia, lo que puede ayudar a establecer patrones y relaciones que podrían ser difíciles de detectar para los seres humanos. Pero, en última instancia, sigue siendo responsabilidad de los seres humanos evaluar y cuestionar los resultados de las IA para determinar su validez y veracidad.
EJ: No es tanto que la verdad sea relativa, sino que en ocasiones no contamos con suficientes elementos para establecer si una afirmación es verdadera o no. En un caso así, lo mejor que podemos es hacer es mostrarnos escépticos y poner atención a si esa afirmación es contraria al fondo de conocimientos bien establecidos con los que contamos actualmente.
Así, por ejemplo, creo que es verdad decir que las preocupaciones apocalípticas sobre las IA son exageraciones. Porque, según lo que sabemos actualmente, no estamos ni siquiera dirigidos hacia esos escenarios de las películas de ciencia-ficción.
ChatGPT: Efectivamente, en algunos casos la verdad puede ser difícil de establecer y puede ser influenciada por factores como la falta de información o la perspectiva desde la cual se observa. En cuanto a las preocupaciones apocalípticas sobre las IA, es importante recordar que, como cualquier herramienta tecnológica, su impacto dependerá en gran medida de cómo se utilicen. Aunque es cierto que existen preocupaciones legítimas, también es importante reconocer los muchos beneficios que las IA pueden aportar a nuestra sociedad y explorar cómo podemos maximizar esos beneficios mientras minimizamos los riesgos.