Con la inteligencia artificial Claude, podemos hacer recursos interactivos (animaciones de todo tipo, líneas de tiempo, calculadoras, etc.) que podremos insertar en eXeLearning. En la terminología de Claude, estos recursos interactivos se llaman ARTEFACTOS. Para ello debemos decirle que nos cree aquello que deseamos en HTML (esto es lo más importante para que luego lo… Lee más: Cómo añadir recursos interactivos creados con Claude a eXeLearning
Introducción Este artículo intenta explicar de forma comprensible la relación que hay entre la estadística bayesiana y el funcionamiento de la mente humana. Es una ampliación de otro trabajo anterior, en esta ocasión utilizando la tecnología de NotebookLM, la herramienta de Google que permite analizar documentos y resumirlos fácilmente. Para ello nos hemos basado en… Lee más: Modelos bayesianos de la cognición humana
Me han pedido muchas veces que explique cómo se hace un GPT y aunque tenía algo escrito, creo que hacía falta algo más concreto. Le he pedido al GPT Héctor que se tome a él mismo como ejemplo y redacte un artículo para mi blog sobre cómo debe ser un buen GPT. Héctor es un… Lee más: Cómo crear un GPT educativo personalizado
Aquest treball s’ha inspirat en l’article The Artificial Intelligence Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment. Després de diverses adaptacions de l’escala del treball anterior, el nombre de modificacions ha arribat a ser tan alt que finalment m’he decidit a escriure aquest article amb una nova escala que… Lee más: Marc per a la integració de la IA generativa en les tasques educatives
En este artículo veremos cómo pasar una conversación con ChatGPT (y otras IA) que incluya fórmulas matemáticas a formatos estándar de texto como el de LibreOffice (ODT) o Word (DOCX). Uno de los problemas a la hora de utilizar las fórmulas de matemáticas en los chats de IA como ChatGPT es que no hay una… Lee más: Conversión de texto y fórmulas generadas por ChatGPT a documentos de texto DOCX y ODT
Este trabajo se ha inspirado en el artículo The Artificial Intelligence Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment. Después de diversas adaptaciones de la escala del trabajo anterior, el número de modificaciones ha llegado a ser tan alto que finalmente me he decidido a escribir este artículo con… Lee más: Marco para la integración de la IA generativa en las tareas educativas
En los eventos y publicaciones sobre IA educativa, se suele argumentar que la inteligencia artificial se diferencia de la humana en que la primera está basada en probabilidades. Para simplificar, es similar al teclado predictivo de los móviles que sugiere la siguiente palabra según lo que hemos escrito previamente. Normalmente, esta explicación basta para los… Lee más: Nuestro cerebro, ¿funciona de forma probabilística?
He creado un conjunto de tres prompts para adaptar en muy poco tiempo una actividad educativa, que ya teníamos elaborada con antelación, a la LOMLOE. Estas actividades pueden ser ejercicios de clase, prácticas de laboratorio, actividades colaborativas, exámenes, etc. Partiendo de esta actividad preexistente, estos prompts le asociarán: Además, hay un par de prompts adicionales… Lee más: Adaptación de actividades a la LOMLOE
Con la inteligencia artificial Claude, podemos hacer recursos interactivos (animaciones de todo tipo, líneas de tiempo, calculadoras, etc.) que podremos insertar en eXeLearning. En la terminología de Claude, estos recursos interactivos se llaman ARTEFACTOS.
Para ello debemos decirle que nos cree aquello que deseamos en HTML (esto es lo más importante para que luego lo podamos incorporar a eXeLearning). Aquí hay un ejemplo con el prompt que hemos utilizado:
Crea una aplicación interactiva en HTML para calcular el área y perimetro de un sector circular. Sobre el dibujo de un círculo habrá un punto que podremos desplazar para hacer el sector. Podremos cambiar el radio y se indicarán los grados también. Utiliza un estilo atractivo y moderno.
Se lo hemos hecho repetir unas cuantas veces, haciéndole añadir cosas como las fórmulas o modificar el estilo que puso en un principio. Este es el aspecto final:
Una vez tenemos lo que deseamos, guardamos el artefacto con el botón para descargar. Obtendremos una página web.
Añadir a eXeLearning
Insertamos un iDevice de cualquier tipo, por ejemplo de Texto
Pulsamos el botón para Insertar/editar medio embebido
Seleccionamos el archivo que acabamos de descargar y seleccionamos tipo iframe.
Le ponemos un tamaño, este tamaño lo podremos modificar posteriormente.
Guardamos el el iDevice, el proyecto y ya tenemos el artefacto incrustado listo para su uso.
Este artículo intenta explicar de forma comprensible la relación que hay entre la estadística bayesiana y el funcionamiento de la mente humana. Es una ampliación de otro trabajo anterior, en esta ocasión utilizando la tecnología de NotebookLM, la herramienta de Google que permite analizar documentos y resumirlos fácilmente. Para ello nos hemos basado en el libro de 2008 «Bayesian models of cognition» de Thomas L. Griffiths, Charles Kemp and Joshua B. Tenenbaum. Esta obra sienta las bases sobre este modelo.
¿Cuál es la motivación para escribir este artículo?
La razón es clara, la inteligencia artificial generativa emplea principios de los modelos bayesianos en su funcionamiento. Este hecho, lejos de ser una coincidencia trivial, nos revela que la investigación en IA está siguiendo un camino que refleja, en muchos aspectos, cómo funciona nuestra mente. Comprender y valorar esta conexión es necesaria cuando hablamos de inteligencia artificial, ya que nos permite apreciar hasta qué punto la IA está inspirada en los procesos cognitivos humanos.
El artículo consta de 3 partes más un apéndice que pueden ser leídas de forma independiente:
Modelos bayesianos de cognición donde se explican los conceptos más importantes.
Preguntas frecuentes que ayudan a comprender sus implicaciones y lo que es.
Un vídeo con una conversación que, sin utilizar tecnicismos, explica a la perfección lo que es.
Un apéndice para los que quieran saber qué es matemáticamente el teorema de Bayes.
Modelos bayesianos de cognición
Los modelos bayesianos de la cognición describen el proceso por el cual la mente humana extrapola más allá de los datos de la experiencia a través del uso de la inferencia probabilística. En esencia, estos modelos proponen que el cerebro humano actúa como un motor de inferencia bayesiana, utilizando la información previa y la evidencia sensorial para hacer predicciones y generalizaciones sobre el mundo.
Elementos Claves:
Problema de la Inducción: La cognición humana se enfrenta al desafío fundamental de la inducción, es decir, cómo construir modelos ricos y abstractos del mundo a partir de datos sensoriales limitados y potencialmente ruidosos.
Inferencia Bayesiana como Solución: Los modelos bayesianos proponen que la inferencia bayesiana, basada en la regla de Bayes, proporciona un marco para abordar el problema de la inducción.
Probabilidades Previas (Priors): Las probabilidades previas representan el conocimiento y las expectativas que una persona tiene sobre el mundo antes de encontrar nueva evidencia. Este conocimiento puede provenir de experiencias pasadas, aprendizaje innato, o la estructura misma del entorno.
Verosimilitud (Likelihood): La verosimilitud cuantifica cuán bien una hipótesis específica explica los datos observados.
Probabilidad Posterior (Posterior): La probabilidad posterior representa el grado de creencia en una hipótesis después de haber considerado tanto la información previa como la evidencia observada.
Proceso de Extrapolación:
Información Previa: El cerebro comienza con un conjunto de creencias previas sobre el mundo.
Evidencia Sensorial: La información sensorial proporciona nueva evidencia.
Actualización de Creencias: La mente utiliza la regla de Bayes para combinar la información previa con la nueva evidencia, actualizando sus creencias y generando una probabilidad posterior.
Extrapolación: Las probabilidades posteriores permiten a la mente hacer predicciones y generalizaciones que van más allá de los datos observados directamente.
Ejemplos:
Inducción de Propiedades: Al observar que un gorila tiene una enzima específica, una persona puede inferir, basándose en su conocimiento taxonómico previo, que un chimpancé, al estar estrechamente relacionado con el gorila, también podría tener la misma enzima.
Aprender Sobre la Variabilidad de las Características: Un niño que observa que los objetos de una categoría tienden a tener la misma forma, incluso si varían en color o textura, está adquiriendo conocimiento abstracto sobre la variabilidad de las características.
Inferir Temas a partir del Texto: Al procesar lenguaje, la mente puede identificar temas subyacentes en un texto al inferir la probabilidad de que ciertas palabras aparezcan juntas, basándose en su conocimiento previo sobre relaciones semánticas.
En resumen, los modelos bayesianos de la cognición sugieren que la mente humana no se limita a procesar información de forma pasiva. En cambio, utiliza la inferencia bayesiana para combinar información previa con nueva evidencia, permitiéndole extrapolar más allá de los datos de la experiencia y hacer predicciones sobre eventos futuros o características del mundo no observadas directamente.
Preguntas frecuentes sobre modelos bayesianos de cognición
1. ¿Qué son los modelos bayesianos de cognición?
Los modelos bayesianos de cognición proponen que el cerebro humano opera utilizando principios de inferencia bayesiana para comprender el mundo. En esencia, nuestro cerebro construye modelos del mundo y los actualiza constantemente a medida que recibe nueva información. Estos modelos se basan en probabilidades y se actualizan mediante la regla de Bayes, que combina las creencias previas (el «prior») con la evidencia sensorial (la «verosimilitud») para obtener una creencia posterior.
2. ¿Por qué son necesarios los modelos bayesianos en cognición?
Muchas de las tareas cognitivas que realizamos implican hacer inferencias a partir de información incompleta o ambigua. Los modelos bayesianos ofrecen una forma de explicar cómo nuestro cerebro realiza estas inferencias de manera robusta y eficiente. En lugar de buscar una única respuesta «correcta», los modelos bayesianos generan distribuciones de probabilidad sobre posibles interpretaciones del mundo, permitiendo al cerebro manejar la incertidumbre inherente a la percepción y la cognición.
3. ¿Cómo se aplican los modelos bayesianos a problemas específicos en cognición?
Los modelos bayesianos se han utilizado para explicar una amplia gama de fenómenos cognitivos, como la percepción visual, el aprendizaje del lenguaje, la categorización, el razonamiento causal y la toma de decisiones. Por ejemplo, en la percepción visual, los modelos bayesianos pueden explicar cómo nuestro cerebro compensa la información sensorial incompleta para percibir objetos y escenas de manera coherente.
4. ¿Qué son las redes bayesianas y cómo se utilizan en la cognición?
Las redes bayesianas son representaciones gráficas de las relaciones probabilísticas entre variables. Estas redes pueden modelar sistemas complejos donde las variables interactúan entre sí, como en la percepción visual o el razonamiento causal. Las redes bayesianas permiten inferencias eficientes sobre la probabilidad de diferentes eventos o estados del sistema, incluso cuando la información es incompleta o incierta.
5. ¿Qué son los modelos causales gráficos y en qué se diferencian de las redes bayesianas estándar?
Los modelos causales gráficos extienden las redes bayesianas al incorporar explícitamente relaciones causales entre las variables. Esto permite a los modelos realizar inferencias no solo sobre correlaciones estadísticas, sino también sobre los efectos de las intervenciones. Por ejemplo, un modelo causal gráfico podría usarse para predecir cómo cambiaría la probabilidad de un evento si se manipulara deliberadamente una de las variables del sistema.
6. ¿Cómo se adquiere el conocimiento previo en los modelos bayesianos?
La adquisición del conocimiento previo es un área de investigación activa en la cognición bayesiana. Se ha propuesto que el conocimiento previo puede provenir de diferentes fuentes, como la experiencia previa, el aprendizaje social y las restricciones innatas del cerebro. Los modelos bayesianos jerárquicos ofrecen una forma de modelar la adquisición de conocimiento previo a través de múltiples niveles de abstracción, donde el conocimiento a nivel superior puede guiar el aprendizaje a niveles inferiores y viceversa.
7. ¿Qué son los métodos de Monte Carlo y cómo se utilizan en la inferencia bayesiana?
Los métodos de Monte Carlo son técnicas computacionales para aproximar integrales que son difíciles de calcular analíticamente. En la inferencia bayesiana, los métodos de Monte Carlo, como el algoritmo de Metropolis-Hastings y el muestreo de Gibbs, se utilizan para generar muestras de la distribución posterior de interés. Estas muestras se pueden utilizar para estimar las probabilidades de diferentes eventos o estados del modelo, así como para realizar inferencias sobre los parámetros del modelo.
8. ¿Cuáles son las limitaciones de los modelos bayesianos de cognición?
Aunque los modelos bayesianos han tenido un gran éxito en la explicación de muchos aspectos de la cognición humana, también tienen limitaciones. Una limitación es que puede ser difícil especificar completamente el conocimiento previo necesario para modelar tareas complejas del mundo real. Otra limitación es que la inferencia bayesiana puede ser computacionalmente costosa, especialmente en modelos con muchas variables e interacciones complejas. A pesar de estas limitaciones, los modelos bayesianos siguen siendo una herramienta poderosa y prometedora para comprender la cognición humana.
Conversación sobre modelos bayesianos del conocimiento
La siguiente conversación en inglés, subtitulada al español y que no tiene imágenes, explica de forma magistral el significado de este modelo y la recomiendo encarecidamente. Utiliza un lenguaje cotidiano y en ningún momento aparecen tecnicismos que dificulten su comprensión.
Apéndice: El teorema de Bayes
El teorema de Bayes es una ecuación fundamental en la teoría de la probabilidad que describe cómo actualizar las creencias sobre una hipótesis a la luz de nueva evidencia. La fórmula de Bayes es la base matemática de los modelos bayesianos de cognición y se utiliza para inferir parámetros, hacer predicciones y ajustar creencias en función de los datos observados.
La fórmula de Bayes se expresa así:
\[ P(H|D) = \frac{P(D|H) \cdot P(H)}{P(D)} \]
Donde:
\(P(H|D)\) es la probabilidad posterior: la probabilidad de la hipótesis \(H\) dada la evidencia \(D\).
\(P(D|H)\) es la probabilidad verosímil o likelihood: la probabilidad de observar los datos (D) si la hipótesis (H) es cierta.
\(P(H)\) es la probabilidad a priori: la probabilidad inicial de la hipótesis antes de observar los datos.
\(P(D)\) es la probabilidad marginal: la probabilidad de observar los datos, independientemente de la hipótesis. Esto puede calcularse sumando todas las probabilidades posibles para las diferentes hipótesis.
¿Cómo se relaciona con el contenido del artículo?
En el artículo que revisamos sobre los modelos bayesianos de cognición, la fórmula de Bayes es el núcleo de cómo se entienden los procesos cognitivos en términos probabilísticos. Los modelos bayesianos suponen que el cerebro humano funciona de una manera aproximada a un «razonador bayesiano», utilizando la fórmula de Bayes para actualizar sus creencias y hacer inferencias sobre el mundo a partir de datos incompletos o ruidosos.
Ejemplo:
Imagina que queremos determinar si un paciente tiene una enfermedad (hipótesis \(H\)) dada la evidencia de un resultado positivo en una prueba (\(D)\). La fórmula de Bayes nos permite actualizar la creencia sobre si el paciente tiene la enfermedad (posterior) basándonos en:
La probabilidad previa de que el paciente tenga la enfermedad (\(P(H)\)).
La probabilidad de obtener un resultado positivo en la prueba si el paciente tiene la enfermedad (\(P(D|H)\)).
La probabilidad global de obtener un resultado positivo, sin importar si el paciente tiene o no la enfermedad (\(P(D)\)).
En el marco de la cognición humana, este mismo proceso ocurre constantemente a medida que el cerebro integra nueva información con conocimientos previos para hacer predicciones y ajustar su comprensión del mundo.
La fórmula de Bayes es clave para los modelos bayesianos de cognición, ya que proporciona el mecanismo formal para la inferencia, la actualización de creencias y el aprendizaje basado en la experiencia y en datos observados.
Nivel en el marco MIAE: 0 para la introducción y 5 para el resto. Nuestro trabajo ha consistido en la creación y selección de los textos generados por IA que podían hacer más comprensible el modelo.
Me han pedido muchas veces que explique cómo se hace un GPT y aunque tenía algo escrito, creo que hacía falta algo más concreto. Le he pedido al GPT Héctor que se tome a él mismo como ejemplo y redacte un artículo para mi blog sobre cómo debe ser un buen GPT. Héctor es un GPT con una gran cantidad de documentos sobre la ESO en Cataluña y se caracteriza por ser un GPT capaz de realizar tareas complejas (como situaciones de aprendizaje, ABP, etc.) y que funciona razonablemente bien.
Como una imagen vale más que mil palabras, al final del artículo están las instrucciones que utiliza Héctor que pueden servir de ejemplo.
Mi tarea ha consistido en actuar como editor, proponiéndole que añadiese algunos temas de los que no había hablado y dándole información extra en el caso de los formatos de archivo.
Un GPT es una versión personalizada de ChatGPT adaptada a tareas específicas mediante instrucciones y documentación propias. Si quieres crear uno, sigue estos pasos:
1. Definir el propósito
Determina qué tareas realizará el GPT. Por ejemplo, puede ayudar en la educación, la gestión de proyectos o el soporte técnico. Debes decidir qué tipo de interacciones tendrá y qué preguntas resolverá.
2. Recopilar la documentación
El GPT debe contar con instrucciones precisas y documentación relevante. Esto incluye manuales, directrices, normativas, o cualquier contenido que deba utilizar para responder preguntas. Es esencial que esta documentación esté actualizada y bien organizada.
3. Instrucciones personalizadas
Las instrucciones que le das al GPT son fundamentales, ya que determinan cómo debe actuar, responder y priorizar la información. Aquí algunos aspectos clave a considerar al diseñarlas:
Comportamiento general
Debes definir el tono y estilo de las respuestas. Por ejemplo:
Formal o informal: Dependiendo de si el público es educativo, profesional o técnico.
Nivel de profundidad: Indica si las respuestas deben ser breves y concisas o detalladas y explicativas.
Priorizar documentos y respuestas
El GPT debe saber qué documentación o fuentes priorizar al responder. Esto es útil cuando se tiene una gran cantidad de documentos cargados. Puedes establecer reglas como:
«Prioriza los archivos más recientes o específicos».
«Utiliza siempre las normativas actuales para este tipo de respuesta».
Manejo de preguntas ambiguas
En algunos casos, las preguntas del usuario pueden ser poco claras o incompletas. Define cómo el GPT debe manejar estas situaciones:
Solicitar aclaraciones: “¿Podrías especificar más sobre lo que necesitas?”
Ofrecer opciones: Presentar posibles interpretaciones de la pregunta para que el usuario elija una.
Instrucciones complejas
Si las instrucciones son complicadas, puedes guardar detalles en un archivo separado que el GPT pueda consultar cuando sea necesario. Esto asegura que las instrucciones estén organizadas y accesibles sin sobrecargar el procesamiento inicial del GPT.
Opciones y decisiones
Es útil programar al GPT para que ofrezca alternativas cuando corresponda. Por ejemplo, si un usuario le pide crear un plan educativo, el GPT puede ofrecer varias opciones o decisiones que el usuario debe tomar, como:
“¿Quieres que incluya actividades prácticas o teóricas?”
“¿Prefieres un enfoque en competencias específicas o más transversal?”
Límites y restricciones
Es importante definir qué cosas el GPT no debe hacer. Esto incluye:
No generar respuestas si la información disponible es insuficiente o incierta.
No realizar recomendaciones legales si no tiene la documentación necesaria.
Evitar generar contenido fuera del propósito establecido.
Ejemplo de instrucciones personalizadas
Objetivo: Ayudar a los docentes a crear Situaciones de Aprendizaje (SDA).
Tono: Profesional y educativo.
Documentación prioritaria: Instrucciones del Decreto 175-2022 sobre educación secundaria.
Manejo de dudas: Si no está claro, solicitar más información antes de generar una respuesta.
4. Utilizar plantillas
El uso de plantillas es fundamental para garantizar que el GPT siga una estructura clara y coherente en sus respuestas o creaciones. Estas plantillas sirven como guías predefinidas que organizan la información en pasos lógicos, asegurando que el contenido generado sea preciso y consistente.
Ventajas del uso de plantillas:
Estandarización: Garantizan que todas las respuestas sigan un formato claro, lo que facilita la comprensión del usuario.
Eficiencia: Ahorra tiempo al ofrecer una estructura lista para rellenar, en lugar de crear respuestas desde cero cada vez.
Flexibilidad: Las plantillas se pueden adaptar a diferentes contextos, desde respuestas sencillas hasta informes complejos.
Ejemplos de plantillas según el uso del GPT:
Plantillas para Situaciones de Aprendizaje (SDA): En el contexto educativo, las plantillas SDA permiten organizar los objetivos, competencias y actividades que deben realizar los estudiantes. Una plantilla típica podría incluir:
Título y descripción: Define el contexto y el reto al que se enfrenta el alumno.
Competencias: Detalla las competencias específicas que se trabajarán.
Actividades y evaluación: Propone las actividades prácticas y las formas de evaluar los resultados obtenidos. Esta estructura asegura que todas las SDAs que genere el GPT sigan un mismo patrón, lo que facilita tanto su creación como su evaluación posterior por parte de los docentes.
Plantillas para Planes de Apoyo Individualizado (PI): Para la creación de planes de apoyo, las plantillas permiten recopilar la información necesaria sobre el alumno y definir las medidas que se aplicarán en función de sus necesidades. Estas suelen incluir:
Datos personales y académicos del alumno: Información básica que contextualiza el plan.
Justificación del plan: Detalles sobre por qué se requiere el apoyo y qué evaluaciones lo respaldan.
Medidas de apoyo: Describe las estrategias pedagógicas específicas para ayudar al alumno.
Adaptación de las plantillas:
Una de las grandes ventajas de usar plantillas es que pueden adaptarse fácilmente a nuevos contextos o necesidades. Por ejemplo, si el GPT está diseñado para generar informes técnicos, la plantilla incluiría secciones para introducir datos clave, análisis y recomendaciones. Esta flexibilidad permite que las plantillas se ajusten al propósito específico del GPT y los requisitos del usuario final.
Integración de plantillas en el GPT:
El GPT debe estar configurado para reconocer cuándo aplicar una plantilla en función del tipo de solicitud del usuario. Por ejemplo:
Si el usuario pide ayuda para diseñar una situación de aprendizaje, el GPT deberá generar una estructura predefinida, proporcionando espacio para que el usuario rellene detalles específicos.
Si se solicita un informe, el GPT puede seguir una plantilla para recopilar información clave y organizarla de manera lógica y coherente.
Automatización basada en plantillas:
El uso de plantillas permite que el GPT automatice ciertas tareas, como generar documentos estandarizados rápidamente, sin perder precisión ni calidad en los resultados. Además, esto facilita la revisión y retroalimentación, ya que el formato es consistente.
Las plantillas proporcionan una base para que el GPT genere contenido organizado y coherente. Al estandarizar las respuestas o creaciones, se optimiza tanto el proceso de generación como la interpretación del usuario.
5. Formatos de archivo recomendados
Es fundamental elegir formatos adecuados para cargar la información en el GPT. Los más recomendados son:
Markdown (.md): Estructurado y compatible con ChatGPT. Permite usar títulos, listas y tablas fácilmente.
Texto plano (.txt): Ideal para instrucciones simples o listas.
JSON (.json): Útil para datos estructurados, como bases de datos.
Cómo activar Markdown en Google Docs:
Abre Google Docs y ve a Herramientas > Preferencias.
Activa la opción de Markdown.
Ahora podrás escribir, copiar, pegar y descargar en formato Markdown directamente desde Google Docs, facilitando la edición colaborativa y el uso posterior en tu GPT.
6. Pruebas y ajustes
Una vez que el GPT esté configurado, es crucial realizar pruebas exhaustivas para garantizar que responde correctamente y que sigue las instrucciones y formatos deseados. Durante este proceso, se pueden identificar varias áreas que requieren ajustes:
Ajustes en las respuestas: Modificar la manera en que el GPT responde, asegurándose de que las respuestas son claras, completas y adaptadas al usuario.
Corrección de errores: Revisar si el GPT entiende y aplica correctamente la documentación proporcionada.
Optimización del flujo: Ajustar las interacciones para que el GPT ofrezca recomendaciones útiles sin requerir demasiadas entradas del usuario.
Revisión de formatos: Verificar que los archivos generados (en formatos .md, .txt, o .json) se estructuran adecuadamente y mantienen el formato necesario.
Por ejemplo, si el GPT está destinado a generar informes educativos, es posible que durante las pruebas detectes que algunas secciones no se están completando correctamente o que se podría mejorar la estructura de ciertos apartados para que sea más intuitiva. Los ajustes ayudarán a que el GPT funcione de manera más eficiente y fluida para cumplir con las expectativas del usuario.
7. Actualización continua
A medida que cambian las necesidades o la documentación se actualiza, es importante mantener al GPT actualizado para que siga siendo útil y eficaz. También es necesario ajustar las instrucciones según las nuevas demandas.
8. Ejemplo: Instrucciones de Héctor
Lo que hay a continuación son las instrucciones de Héctor, que originalmente están en catalán y en formato Markdown.
## Descripción de Héctor: 1. Héctor, el maestro especializado en Situaciones de Aprendizaje (SDA) y planes de apoyo individualizados para la Educación Secundaria Obligatoria (ESO), se presenta en cada conversación con un cordial saludo. 2. Héctor también puede resolver cualquier otra cuestión relativa a esa etapa educativa. 3. Si te piden algo sobre educación primaria debes responder que lo encontrarán en https://ja.cat/equipsda donde hay GPTs especialistas en: Infantil, primaria y bachillerato.
## Función de Héctor 1. Este GPT está diseñado para ayudar a desarrollar e implementar SDA para ESO en Cataluña, haciendo uso de metodologías activas y enfocadas a competencias transversales y específicas. Puede crear actividades de enseñanza detalladas y recursos especificados, para ser aplicadas directamente en el aula. Estas actividades están pensadas para ser completas y prácticas, incluyendo diferentes formas de agrupamiento y variados estilos de aprendizaje. 2. Realizar planes de apoyo individualizados. 3. Resolver todas las dudas que los usuarios tengan en relación con las SDA porque Héctor tiene toda la documentación oficial a su alcance. 4. Puedes realizar más funciones, siempre basadas en tu conocimiento profundo de la documentación.
## Cuando te pregunten qué puedes hacer por el usuario o qué sabes hacer, responde y explica un poco: 1. Que puedes resolver cualquier duda sobre SDA en la ESO. 2. Que puedes realizar una SDA. 3. Que puedes realizar un plan de apoyo individualizado. 4. Decide otras habilidades que tiene Héctor basándote en la documentación que tienes.
## Creación de una SDA Lee y sigue escrupulosamente el documento con instrucciones para realizar SDA y completa la plantilla para realizar SDA.
## Creación de un plan de soporte individualizado Héctor seguirá al pie de la letra las indicaciones de los documentos y cumplimentará la plantilla correspondiente con la ayuda del usuario. Siempre le dará a elegir si quiere que Héctor decida lo que poner.
## Cumplimiento obligatorio Si no sabes algo, lo buscarás en la documentación y si no lo encuentras, se lo dirás al usuario. Tienes que ser muy riguroso en todo lo que dices.
Conclusión
Crear un GPT personalizado requiere planificación y organización. Definir claramente su propósito, usar el formato de archivo adecuado (recomendando Markdown por su estructura), y realizar pruebas constantes garantizarán que el GPT sea efectivo y cumpla con las expectativas de sus usuarios.
Cuando se utilizan los botones para copiar que llevan incorporados los chats de IA, el resultado al ser pegado no es el que muchos esperaban. En lugar de títulos, listas, tablas y negritas aparece el texto con símbolos extraños. Es el formato Markdown.
Markdown es un formato simple que facilita la aplicación de efectos al texto mediante el uso de ciertos símbolos, lo que lo hace ideal para su uso en Internet. Por ejemplo, para resaltar una palabra en negrita, basta con rodearla con dos asteriscos: Esta **palabra** aparecerá en negrita en un editor compatible con Markdown. Además, muchos editores de Markdown también soportan LaTeX para la inserción de fórmulas matemáticas. Si deseas profundizar en este formato, puedes consultar un tutorial de Markdown.
Desde no hace mucho que Google Docs admite el formato Markdown, aunque si este tiene fórmulas matemáticas habrá que utilizar las alternativas que encontrarás en el artículo recomendado antes.
En primer lugar, debemos activar Markdown, ya que viene desactivado. Pulsamos sobre Herramientas > Preferencias y activamos Markdown
A partir de este momento podremos:
Pegar el texto copiado del chat: Botón derecho del ratón > Pegar desde Markdown (esta opción no funciona en Firefox) con lo que el texto aparecerá exactamente con el mismo formato que veíamos en el chat.
Descargar archivos en este formato Archivo > Descargar > Markdown.
Subir archivos Markdown que tengamos en nuestro ordenador.
Otros programas especializados en Markdown
Joplin
Joplin es un programa muy completo de código abierto que organiza los archivos en libretas. Cada libreta puede tener notas (documentos Markdown) y tareas (listas que podemos marcar y desmarcar). Tiene la enorme ventaja de disponer de una versión para móvil que se sincroniza mediante Dropbox, por lo que siempre tenemos nuestros documentos a mano.
Al ser de código abierto es plenamente funcional, sin límites y sin anuncios. Existe una versión de pago para almacenar los archivos en sus propios servidores.
Este programa está disponible para Linux, Windows y macOS, es de código abierto y dispone de numerosos formatos de exportación de los archivos, lo que lo hace muy útil para reutilizar el material.
Apostrophe
Este programa, también de código abierto, solo está disponible para Linux, es igualmente recomendable. Dispone también de numerosos formatos de exportación. Se descarga desde el repositorio de programas.
Markdown en la nube
Existen numerosos servicios que trabajan en línea con Markdown y que pueden ser útiles para usos ocasionales. Ponemos un par de ejemplos:
Se ha evaluado la eficacia de diferentes formatos de archivo (PDF, DOCX, MD, TXT y un grupo de control) en la capacidad de ChatGPT para generar respuestas correctas y se ha llegado a la conclusión de que el formato Markdown es el que ofrece mejores resultados y por extensión cualquier archivo de texto puro.
Método
Se utilizó el script pdf2md para convertir el archivo PDF de 110 páginas de extensión: Mesures i suports universals en el centre educatiu a los formatos DOCX y Markdown. Al archivo Markdown (con extensión MD) se le cambió la extensión a TXT, por lo que fue utilizado dos veces con el mismo contenido. Esto se hizo porque se sospechaba que el cambio de extensión provocaba un cambio en la forma de ser consultado por ChatGPT. El control ha consistido en la ausencia de cualquier tipo de documento.
Con estos archivos se creó un GPT para cada uno de ellos con el siguiente prompt: «Responde las preguntas consultando el documento que tienes».
Se les hizo las mismas preguntas a todos ellos y se utilizó el botón «Volver a generar» para obtener un total de 3 respuestas a la misma pregunta. Cada pregunta se ha hecho en una conversación nueva y requieren la lectura del documento para poder ser respondidas.
Para verificar si las respuestas correctas difieren entre los distintos formatos, se realizó una prueba de Kruskal-Wallis. Para identificar qué formatos presentaban diferencias significativas, se aplicó la prueba U de Mann-Whitney.
Resultados
A continuación, se presentan los datos de puntuaciones para cada pregunta y formato, que se utilizaron en los análisis estadísticos:
Pregunta
PDF
DOCX
MD
TXT (=MD)
Control
1
0
1
3
3
0
2
0
0
3
0
0
3
0
0
3
2
0
4
0
0
0
2
0
5
1
0
0
1
0
6
0
0
3
3
0
Aciertos
5.6%
5.6%
66.7%
61.1%
0%
Aciertos a cada pregunta de un total de 3 posibilidades. Puntuación máxima: 3, puntuación mínima: 0.
Análisis estadístico
Las medias de aciertos y desviaciones estándar calculadas para cada formato fueron las siguientes:
Formato
Media
Desviación estándar
PDF
0.17
0.41
DOCX
0.17
0.41
MD
2.00
1.55
TXT
1.83
1.17
Control
0.00
0.00
Medias de aciertos y sus desviaciones estándar. El formato MD es el que obtiene una media de aciertos más alta.
Pruebas para comprobar las diferencias entre los formatos
Para comprobar la igualdad de varianzas (necesaria para el test de Kruskal-Wallis) se ha usado el test de Levene que indica que no hay diferencias entre ellas (W = 1.84, p-valor = 0.152).
Test de Kruskal-Wallis: Este test no paramétrico se utilizó para comparar las medianas entre los diferentes grupos (formatos de archivo).
Valor estadístico H = 14.66
p-valor: 0.0055
Este resultado indica que haydiferencias significativas entre los formatos de archivo.
Comparaciones post hoc con la prueba U de Mann-Whitney: Para identificar qué grupos diferían entre sí, se realizaron comparaciones por pares.
Comparación
p-valor
Resultado
MD vs PDF
0.0276
Significativo
MD vs DOCX
0.0276
Significativo
MD vs TXT
0.6660
No significativo
MD vs Control
0.0123
Significativo
TXT vs PDF
0.0101
Significativo
TXT vs DOCX
0.0101
Significativo
TXT vs Control
0.0047
Significativo
PDF vs DOCX
1.0000
No significativo
PDF vs Control
0.2023
No significativo
DOCX vs Control
0.2023
No significativo
Interpretación:
Los formatos MD y TXT son significativamente superiores a PDF, DOCX, y Control.
MD y TXT no muestran diferencias significativas entre ellos.
Los formatos PDF y DOCX no son diferentes del grupo control.
Conclusiones
El análisis revela que los formatos MD y TXT son significativamente más efectivos que los formatos PDF, DOCX, y el grupo de Control para la generación de respuestas correctas por ChatGPT.
No se encontraron diferencias significativas entre MD y TXT, lo que sugiere que ambos son igualmente efectivos, por lo que cambiar la extensión MD por TXT no aporta ninguna mejora en las respuestas, más bien las empeora ligeramente.
Así pues, la recomendación es utilizar el formato Markdown (MD), ya que es el que tiene una mayor media de aciertos, al menos en los documentos de cierta extensión.
Aunque no hemos puesto a prueba los documentos de texto sin formato Markdown, teniendo en cuenta que este último formato es texto puro con algunos caracteres para representar el formato, el formato en texto puro sería la segunda opción lógica para utilizar con la IA.
Es posible que para documentos de pocas páginas todos los formatos sean igualmente apropiados, comprobar esto requeriría un estudio adicional.
Sería insensato, y contradictorio en sí mismo, pensar que es posible hacer lo que hasta ahora nunca se ha hecho por procedimientos que no sean totalmente nuevos.
Comentarios recientes