Lo que más preocupa al Dicasterio para la Cultura y la Educación del Vaticano sobre el uso de ChatGPT es que las personas "se entreguen por completo a lo que indique la máquina"
![]() |
Ecclesia |
El director y
asesor del Centro de Cultura Digital del Dicasterio para la Cultura y la
Educación del Vaticano, el español Ángel
González-Ferrer García, ha avanzado a Europa Press que publicarán un documento
sobre el ser humano y su interacción con la Inteligencia Artificial
(IA).
En este
sentido, ha explicado que están inmersos en la fase de recopilación y redacción
de un documento que recogerá estos tres últimos años de "reflexiones e
investigaciones filosóficas y teológicas de lo que significa ser humano en la
era digital" y cómo se debe afrontar este reto, "desde el punto
de vista antropológico" y de lo que supone "el uso e
interacción con estas nuevas tecnologías alrededor de la IA".
Además, el organismo vaticano colabora con el Institute for Technology Ethics & Culture
de Silicon Valley para la redacción de un manual
sobre ética aplicada a las nuevas tecnologías digitales.
Gónzalez-Ferrer
García apuesta en el ámbito de la IA por un "marco
regulatorio común" donde todos los agentes se rijan por unas "mismas bases y
directrices éticas" para evitar los riesgos de la evolución tan rápida que ha tenido en
los últimos años el desarrollo de la IA, como ha sucedido con ChatGPT.
"Lo importante
es que no vaya cada país por su lado, sino que todos los estados miembros sigan
una misma directriz, máxime cuando hay un reglamento específico para ello. Lo que hay
que analizar es cómo adaptarla y que el gap de velocidades entre el desarrollo
tecnológico y normativo sea el menor posible", asegura en una entrevista
con Europa Press, poco después de que esta plataforma esté de nuevo disponible
en Italia después de que OpenAI, la empresa matriz estadounidense del
chatbot, respondiera
a las solicitudes de las autoridades para la protección de datos personales que
habían previamente bloqueado su uso.
El experto
subraya que ChatGPT es un "gran repositorio de información para consultar,
al estilo de la Wikipedia, pero más potente y con un nivel de precisión
mayor por la interacción y aprendizaje que tiene con los usuarios". Pero,
a su vez, también considera que se puede considerar como un
"colaborador" para "la resolución de problemas y toma de
decisiones".
Por el
momento, la plataforma no está conectada a Internet u otras fuentes de
información externas, sino que se basa en el procesamiento de un conjunto de
datos propios recopilados, - sólo llega hasta 2021 - que se entrenan para
comprender y generar textos sobre una amplia gama de temas y estilos. Por ello,
para González-Ferrer García "no se puede considerar que la información que
aporta sea 100% exacta, pues suele fallar más en aquellas partes sujetas a
interpretaciones".
Sobre sus
riesgos, el asesor del Dicasterio para la Cultura y la Educación del Vaticano
apunta que son los propios de "toda herramienta basada en IA que estará
condicionada por los intereses comerciales de las empresas que
desarrollan este software o los posibles sesgos de los desarrolladores".
"Se debería
tomar como una herramienta adicional para conformar o definir una posición,
pero no como la única o verdadera", precisa. En cualquier caso,
asegura que es bueno testear las capacidades de estas nuevas tecnologías e
interactuar con ellas, pues es "la mejor manera para identificar tanto las
oportunidades que aportan como los riesgos".
Con todo, lo
que más preocupa al Dicasterio para la Cultura y la Educación del Vaticano
sobre el uso de ChatGPT es que las personas "se entreguen
por completo a lo que indique la máquina y no se fomente la cultura del
esfuerzo por el aprendizaje, es decir, que no se desarrollen las capacidades
cognitivas propias del ser humano como es la de pensar y razonar".
Así, destaca
que estas herramientas se deberían concebir como una manera de volver más
eficientes las tareas mediante "la búsqueda de otros puntos de vista y de
diversidad en el análisis", pero asegura que hay otro punto importante que
es "definir
cuál va a ser el rol del educador".
Según
González-Ferrer García, otro de los grandes riesgos - dado el enorme poder de
influencia y manipulación que tiene sobre las personas - es que "se concentra
mucho poder en unos pocos agentes (empresas, gobiernos o individuos), con el
consiguiente peligro de pérdida de derechos y autonomía para decidir libremente".
Por ello,
además de un marco regulatorio común, para luchar contra ello propone que los
algoritmos "sean de código abierto para que esté al alcance de toda la
comunidad tecnológica y permita la colaboración entre agentes, que no sea una
mera "caja
negra" donde no se sepa lo que ocurre dentro"; y, que antes de poner
una de estas tecnologías en producción, "exista las interacciones suficientes y de manera
continuada en un escenario real, para testear realmente el impacto que puede
tener y evitar efectos dañinos pudiendo actuar a tiempo para su corrección".
Fuente:
Ecclesia