Bilateria

Blog sobre educación

Página 2 de 16

Cómo añadir recursos interactivos creados con Claude a eXeLearning

Con la inteligencia artificial Claude, podemos hacer recursos interactivos (animaciones de todo tipo, líneas de tiempo, calculadoras, etc.) que podremos insertar en eXeLearning. En la terminología de Claude, estos recursos interactivos se llaman ARTEFACTOS.

Para ello debemos decirle que nos cree aquello que deseamos en HTML (esto es lo más importante para que luego lo podamos incorporar a eXeLearning). Aquí hay un ejemplo con el prompt que hemos utilizado:

Crea una aplicación interactiva en HTML para calcular el área y perimetro de un sector circular. Sobre el dibujo de un círculo habrá un punto que podremos desplazar para hacer el sector. Podremos cambiar el radio y se indicarán los grados también. Utiliza un estilo atractivo y moderno.

Se lo hemos hecho repetir unas cuantas veces, haciéndole añadir cosas como las fórmulas o modificar el estilo que puso en un principio. Este es el aspecto final:

Captura de pantalla del artefacto creado con Claude.

Una vez tenemos lo que deseamos, guardamos el artefacto con el botón para descargar. Obtendremos una página web.

Añadir a eXeLearning

  • Insertamos un iDevice de cualquier tipo, por ejemplo de Texto
  • Pulsamos el botón para Insertar/editar medio embebido
Insertar medio embebido
  • Seleccionamos el archivo que acabamos de descargar y seleccionamos tipo iframe.
Seleccionamos el archivo HTML, seleccionamos tipo iframe y le damos un tamaño
  • Le ponemos un tamaño, este tamaño lo podremos modificar posteriormente.
  • Guardamos el el iDevice, el proyecto y ya tenemos el artefacto incrustado listo para su uso.

Puedes ver aquí en acción el ejemplo que hemos usado para este artículo.

Nota: La redacción de este artículo tiene nivel 0 en el Marco para la integración de la IA generativa en las tareas educativas.

Modelos bayesianos de la cognición humana

Introducción

Este artículo intenta explicar de forma comprensible la relación que hay entre la estadística bayesiana y el funcionamiento de la mente humana. Es una ampliación de otro trabajo anterior, en esta ocasión utilizando la tecnología de NotebookLM, la herramienta de Google que permite analizar documentos y resumirlos fácilmente. Para ello nos hemos basado en el libro de 2008 «Bayesian models of cognition» de Thomas L. Griffiths, Charles Kemp and Joshua B. Tenenbaum. Esta obra sienta las bases sobre este modelo.

¿Cuál es la motivación para escribir este artículo?

La razón es clara, la inteligencia artificial generativa emplea principios de los modelos bayesianos en su funcionamiento. Este hecho, lejos de ser una coincidencia trivial, nos revela que la investigación en IA está siguiendo un camino que refleja, en muchos aspectos, cómo funciona nuestra mente. Comprender y valorar esta conexión es necesaria cuando hablamos de inteligencia artificial, ya que nos permite apreciar hasta qué punto la IA está inspirada en los procesos cognitivos humanos.

El artículo consta de 3 partes más un apéndice que pueden ser leídas de forma independiente:

  • Modelos bayesianos de cognición donde se explican los conceptos más importantes.
  • Preguntas frecuentes que ayudan a comprender sus implicaciones y lo que es.
  • Un apéndice para los que quieran saber qué es matemáticamente el teorema de Bayes.
  • Un podcast generado con inteligencia artificial que explica magistralmente los conceptos del artículo. Te recomendamos escucharlo.

Modelos bayesianos de cognición

Los modelos bayesianos de la cognición describen el proceso por el cual la mente humana extrapola más allá de los datos de la experiencia a través del uso de la inferencia probabilística. En esencia, estos modelos proponen que el cerebro humano actúa como un motor de inferencia bayesiana, utilizando la información previa y la evidencia sensorial para hacer predicciones y generalizaciones sobre el mundo.

Elementos Claves:

  • Problema de la Inducción: La cognición humana se enfrenta al desafío fundamental de la inducción, es decir, cómo construir modelos ricos y abstractos del mundo a partir de datos sensoriales limitados y potencialmente ruidosos.
  • Inferencia Bayesiana como Solución: Los modelos bayesianos proponen que la inferencia bayesiana, basada en la regla de Bayes, proporciona un marco para abordar el problema de la inducción.
  • Probabilidades Previas (Priors): Las probabilidades previas representan el conocimiento y las expectativas que una persona tiene sobre el mundo antes de encontrar nueva evidencia. Este conocimiento puede provenir de experiencias pasadas, aprendizaje innato, o la estructura misma del entorno.
  • Verosimilitud (Likelihood): La verosimilitud cuantifica cuán bien una hipótesis específica explica los datos observados.
  • Probabilidad Posterior (Posterior): La probabilidad posterior representa el grado de creencia en una hipótesis después de haber considerado tanto la información previa como la evidencia observada.

Proceso de Extrapolación:

  1. Información Previa: El cerebro comienza con un conjunto de creencias previas sobre el mundo.
  2. Evidencia Sensorial: La información sensorial proporciona nueva evidencia.
  3. Actualización de Creencias: La mente utiliza la regla de Bayes para combinar la información previa con la nueva evidencia, actualizando sus creencias y generando una probabilidad posterior.
  4. Extrapolación: Las probabilidades posteriores permiten a la mente hacer predicciones y generalizaciones que van más allá de los datos observados directamente.

Ejemplos:

  • Inducción de Propiedades: Al observar que un gorila tiene una enzima específica, una persona puede inferir, basándose en su conocimiento taxonómico previo, que un chimpancé, al estar estrechamente relacionado con el gorila, también podría tener la misma enzima.
  • Aprender Sobre la Variabilidad de las Características: Un niño que observa que los objetos de una categoría tienden a tener la misma forma, incluso si varían en color o textura, está adquiriendo conocimiento abstracto sobre la variabilidad de las características.
  • Inferir Temas a partir del Texto: Al procesar lenguaje, la mente puede identificar temas subyacentes en un texto al inferir la probabilidad de que ciertas palabras aparezcan juntas, basándose en su conocimiento previo sobre relaciones semánticas.

En resumen, los modelos bayesianos de la cognición sugieren que la mente humana no se limita a procesar información de forma pasiva. En cambio, utiliza la inferencia bayesiana para combinar información previa con nueva evidencia, permitiéndole extrapolar más allá de los datos de la experiencia y hacer predicciones sobre eventos futuros o características del mundo no observadas directamente.

Preguntas frecuentes sobre modelos bayesianos de cognición

1. ¿Qué son los modelos bayesianos de cognición?

Los modelos bayesianos de cognición proponen que el cerebro humano opera utilizando principios de inferencia bayesiana para comprender el mundo. En esencia, nuestro cerebro construye modelos del mundo y los actualiza constantemente a medida que recibe nueva información. Estos modelos se basan en probabilidades y se actualizan mediante la regla de Bayes, que combina las creencias previas (el «prior») con la evidencia sensorial (la «verosimilitud») para obtener una creencia posterior.

2. ¿Por qué son necesarios los modelos bayesianos en cognición?

Muchas de las tareas cognitivas que realizamos implican hacer inferencias a partir de información incompleta o ambigua. Los modelos bayesianos ofrecen una forma de explicar cómo nuestro cerebro realiza estas inferencias de manera robusta y eficiente. En lugar de buscar una única respuesta «correcta», los modelos bayesianos generan distribuciones de probabilidad sobre posibles interpretaciones del mundo, permitiendo al cerebro manejar la incertidumbre inherente a la percepción y la cognición.

3. ¿Cómo se aplican los modelos bayesianos a problemas específicos en cognición?

Los modelos bayesianos se han utilizado para explicar una amplia gama de fenómenos cognitivos, como la percepción visual, el aprendizaje del lenguaje, la categorización, el razonamiento causal y la toma de decisiones. Por ejemplo, en la percepción visual, los modelos bayesianos pueden explicar cómo nuestro cerebro compensa la información sensorial incompleta para percibir objetos y escenas de manera coherente.

4. ¿Qué son las redes bayesianas y cómo se utilizan en la cognición?

Las redes bayesianas son representaciones gráficas de las relaciones probabilísticas entre variables. Estas redes pueden modelar sistemas complejos donde las variables interactúan entre sí, como en la percepción visual o el razonamiento causal. Las redes bayesianas permiten inferencias eficientes sobre la probabilidad de diferentes eventos o estados del sistema, incluso cuando la información es incompleta o incierta.

5. ¿Qué son los modelos causales gráficos y en qué se diferencian de las redes bayesianas estándar?

Los modelos causales gráficos extienden las redes bayesianas al incorporar explícitamente relaciones causales entre las variables. Esto permite a los modelos realizar inferencias no solo sobre correlaciones estadísticas, sino también sobre los efectos de las intervenciones. Por ejemplo, un modelo causal gráfico podría usarse para predecir cómo cambiaría la probabilidad de un evento si se manipulara deliberadamente una de las variables del sistema.

6. ¿Cómo se adquiere el conocimiento previo en los modelos bayesianos?

La adquisición del conocimiento previo es un área de investigación activa en la cognición bayesiana. Se ha propuesto que el conocimiento previo puede provenir de diferentes fuentes, como la experiencia previa, el aprendizaje social y las restricciones innatas del cerebro. Los modelos bayesianos jerárquicos ofrecen una forma de modelar la adquisición de conocimiento previo a través de múltiples niveles de abstracción, donde el conocimiento a nivel superior puede guiar el aprendizaje a niveles inferiores y viceversa.

7. ¿Qué son los métodos de Monte Carlo y cómo se utilizan en la inferencia bayesiana?

Los métodos de Monte Carlo son técnicas computacionales para aproximar integrales que son difíciles de calcular analíticamente. En la inferencia bayesiana, los métodos de Monte Carlo, como el algoritmo de Metropolis-Hastings y el muestreo de Gibbs, se utilizan para generar muestras de la distribución posterior de interés. Estas muestras se pueden utilizar para estimar las probabilidades de diferentes eventos o estados del modelo, así como para realizar inferencias sobre los parámetros del modelo.

8. ¿Cuáles son las limitaciones de los modelos bayesianos de cognición?

Aunque los modelos bayesianos han tenido un gran éxito en la explicación de muchos aspectos de la cognición humana, también tienen limitaciones. Una limitación es que puede ser difícil especificar completamente el conocimiento previo necesario para modelar tareas complejas del mundo real. Otra limitación es que la inferencia bayesiana puede ser computacionalmente costosa, especialmente en modelos con muchas variables e interacciones complejas. A pesar de estas limitaciones, los modelos bayesianos siguen siendo una herramienta poderosa y prometedora para comprender la cognición humana.

Apéndice: El teorema de Bayes

El teorema de Bayes es una ecuación fundamental en la teoría de la probabilidad que describe cómo actualizar las creencias sobre una hipótesis a la luz de nueva evidencia. La fórmula de Bayes es la base matemática de los modelos bayesianos de cognición y se utiliza para inferir parámetros, hacer predicciones y ajustar creencias en función de los datos observados.

La fórmula de Bayes se expresa así:

\[
P(H|D) = \frac{P(D|H) \cdot P(H)}{P(D)}
\]

Donde:

  • \(P(H|D)\) es la probabilidad posterior: la probabilidad de la hipótesis \(H\) dada la evidencia \(D\).
  • \(P(D|H)\) es la probabilidad verosímil o likelihood: la probabilidad de observar los datos (D) si la hipótesis (H) es cierta.
  • \(P(H)\) es la probabilidad a priori: la probabilidad inicial de la hipótesis antes de observar los datos.
  • \(P(D)\) es la probabilidad marginal: la probabilidad de observar los datos, independientemente de la hipótesis. Esto puede calcularse sumando todas las probabilidades posibles para las diferentes hipótesis.

¿Cómo se relaciona con el contenido del artículo?

En el artículo que revisamos sobre los modelos bayesianos de cognición, la fórmula de Bayes es el núcleo de cómo se entienden los procesos cognitivos en términos probabilísticos. Los modelos bayesianos suponen que el cerebro humano funciona de una manera aproximada a un «razonador bayesiano», utilizando la fórmula de Bayes para actualizar sus creencias y hacer inferencias sobre el mundo a partir de datos incompletos o ruidosos.

Ejemplo:

Imagina que queremos determinar si un paciente tiene una enfermedad (hipótesis \(H\)) dada la evidencia de un resultado positivo en una prueba (\(D)\). La fórmula de Bayes nos permite actualizar la creencia sobre si el paciente tiene la enfermedad (posterior) basándonos en:

  • La probabilidad previa de que el paciente tenga la enfermedad (\(P(H)\)).
  • La probabilidad de obtener un resultado positivo en la prueba si el paciente tiene la enfermedad (\(P(D|H)\)).
  • La probabilidad global de obtener un resultado positivo, sin importar si el paciente tiene o no la enfermedad (\(P(D)\)).

En el marco de la cognición humana, este mismo proceso ocurre constantemente a medida que el cerebro integra nueva información con conocimientos previos para hacer predicciones y ajustar su comprensión del mundo.

La fórmula de Bayes es clave para los modelos bayesianos de cognición, ya que proporciona el mecanismo formal para la inferencia, la actualización de creencias y el aprendizaje basado en la experiencia y en datos observados.

Diálogo generado por inteligencia artificial sobre el contenido del artículo

El siguiente podcast es una buena explicación del contenido del artículo.


Nivel en el marco MIAE: 0 para la introducción y 5 para el resto. Nuestro trabajo ha consistido en la creación y selección de los textos generados por IA que podían hacer más comprensible el modelo.

Cómo crear un GPT educativo personalizado

Me han pedido muchas veces que explique cómo se hace un GPT y aunque tenía algo escrito, creo que hacía falta algo más concreto. Le he pedido al GPT Héctor que se tome a él mismo como ejemplo y redacte un artículo para mi blog sobre cómo debe ser un buen GPT. Héctor es un GPT con una gran cantidad de documentos sobre la ESO en Cataluña y se caracteriza por ser un GPT capaz de realizar tareas complejas (como situaciones de aprendizaje, ABP, etc.) y que funciona razonablemente bien.

Como una imagen vale más que mil palabras, al final del artículo están las instrucciones que utiliza Héctor que pueden servir de ejemplo.

Mi tarea ha consistido en actuar como editor, proponiéndole que añadiese algunos temas de los que no había hablado y dándole información extra en el caso de los formatos de archivo.

Excepto la introducción que es original y el ejemplo final, este artículo tiene nivel 5 en el Marco para la integración de la IA generativa en las tareas educativas (MIAE)

Proceso de Creación de un GPT

Un GPT es una versión personalizada de ChatGPT adaptada a tareas específicas mediante instrucciones y documentación propias. Si quieres crear uno, sigue estos pasos:

1. Definir el propósito

Determina qué tareas realizará el GPT. Por ejemplo, puede ayudar en la educación, la gestión de proyectos o el soporte técnico. Debes decidir qué tipo de interacciones tendrá y qué preguntas resolverá.

2. Recopilar la documentación

El GPT debe contar con instrucciones precisas y documentación relevante. Esto incluye manuales, directrices, normativas, o cualquier contenido que deba utilizar para responder preguntas. Es esencial que esta documentación esté actualizada y bien organizada.

3. Instrucciones personalizadas

Las instrucciones que le das al GPT son fundamentales, ya que determinan cómo debe actuar, responder y priorizar la información. Aquí algunos aspectos clave a considerar al diseñarlas:

Comportamiento general

Debes definir el tono y estilo de las respuestas. Por ejemplo:

  • Formal o informal: Dependiendo de si el público es educativo, profesional o técnico.
  • Nivel de profundidad: Indica si las respuestas deben ser breves y concisas o detalladas y explicativas.

Priorizar documentos y respuestas

El GPT debe saber qué documentación o fuentes priorizar al responder. Esto es útil cuando se tiene una gran cantidad de documentos cargados. Puedes establecer reglas como:

  • «Prioriza los archivos más recientes o específicos».
  • «Utiliza siempre las normativas actuales para este tipo de respuesta».

Manejo de preguntas ambiguas

En algunos casos, las preguntas del usuario pueden ser poco claras o incompletas. Define cómo el GPT debe manejar estas situaciones:

  • Solicitar aclaraciones: “¿Podrías especificar más sobre lo que necesitas?”
  • Ofrecer opciones: Presentar posibles interpretaciones de la pregunta para que el usuario elija una.

Instrucciones complejas

Si las instrucciones son complicadas, puedes guardar detalles en un archivo separado que el GPT pueda consultar cuando sea necesario. Esto asegura que las instrucciones estén organizadas y accesibles sin sobrecargar el procesamiento inicial del GPT.

Opciones y decisiones

Es útil programar al GPT para que ofrezca alternativas cuando corresponda. Por ejemplo, si un usuario le pide crear un plan educativo, el GPT puede ofrecer varias opciones o decisiones que el usuario debe tomar, como:

  • “¿Quieres que incluya actividades prácticas o teóricas?”
  • “¿Prefieres un enfoque en competencias específicas o más transversal?”

Límites y restricciones

Es importante definir qué cosas el GPT no debe hacer. Esto incluye:

  • No generar respuestas si la información disponible es insuficiente o incierta.
  • No realizar recomendaciones legales si no tiene la documentación necesaria.
  • Evitar generar contenido fuera del propósito establecido.

Ejemplo de instrucciones personalizadas

  • Objetivo: Ayudar a los docentes a crear Situaciones de Aprendizaje (SDA).
  • Tono: Profesional y educativo.
  • Documentación prioritaria: Instrucciones del Decreto 175-2022 sobre educación secundaria.
  • Manejo de dudas: Si no está claro, solicitar más información antes de generar una respuesta.

4. Utilizar plantillas

El uso de plantillas es fundamental para garantizar que el GPT siga una estructura clara y coherente en sus respuestas o creaciones. Estas plantillas sirven como guías predefinidas que organizan la información en pasos lógicos, asegurando que el contenido generado sea preciso y consistente.

Ventajas del uso de plantillas:

  • Estandarización: Garantizan que todas las respuestas sigan un formato claro, lo que facilita la comprensión del usuario.
  • Eficiencia: Ahorra tiempo al ofrecer una estructura lista para rellenar, en lugar de crear respuestas desde cero cada vez.
  • Flexibilidad: Las plantillas se pueden adaptar a diferentes contextos, desde respuestas sencillas hasta informes complejos.

Ejemplos de plantillas según el uso del GPT:

  1. Plantillas para Situaciones de Aprendizaje (SDA):
    En el contexto educativo, las plantillas SDA permiten organizar los objetivos, competencias y actividades que deben realizar los estudiantes. Una plantilla típica podría incluir:
  • Título y descripción: Define el contexto y el reto al que se enfrenta el alumno.
  • Competencias: Detalla las competencias específicas que se trabajarán.
  • Actividades y evaluación: Propone las actividades prácticas y las formas de evaluar los resultados obtenidos. Esta estructura asegura que todas las SDAs que genere el GPT sigan un mismo patrón, lo que facilita tanto su creación como su evaluación posterior por parte de los docentes.
  1. Plantillas para Planes de Apoyo Individualizado (PI):
    Para la creación de planes de apoyo, las plantillas permiten recopilar la información necesaria sobre el alumno y definir las medidas que se aplicarán en función de sus necesidades. Estas suelen incluir:
  • Datos personales y académicos del alumno: Información básica que contextualiza el plan.
  • Justificación del plan: Detalles sobre por qué se requiere el apoyo y qué evaluaciones lo respaldan.
  • Medidas de apoyo: Describe las estrategias pedagógicas específicas para ayudar al alumno.

Adaptación de las plantillas:

Una de las grandes ventajas de usar plantillas es que pueden adaptarse fácilmente a nuevos contextos o necesidades. Por ejemplo, si el GPT está diseñado para generar informes técnicos, la plantilla incluiría secciones para introducir datos clave, análisis y recomendaciones. Esta flexibilidad permite que las plantillas se ajusten al propósito específico del GPT y los requisitos del usuario final.

Integración de plantillas en el GPT:

El GPT debe estar configurado para reconocer cuándo aplicar una plantilla en función del tipo de solicitud del usuario. Por ejemplo:

  • Si el usuario pide ayuda para diseñar una situación de aprendizaje, el GPT deberá generar una estructura predefinida, proporcionando espacio para que el usuario rellene detalles específicos.
  • Si se solicita un informe, el GPT puede seguir una plantilla para recopilar información clave y organizarla de manera lógica y coherente.

Automatización basada en plantillas:

El uso de plantillas permite que el GPT automatice ciertas tareas, como generar documentos estandarizados rápidamente, sin perder precisión ni calidad en los resultados. Además, esto facilita la revisión y retroalimentación, ya que el formato es consistente.

Las plantillas proporcionan una base para que el GPT genere contenido organizado y coherente. Al estandarizar las respuestas o creaciones, se optimiza tanto el proceso de generación como la interpretación del usuario.

5. Formatos de archivo recomendados

Es fundamental elegir formatos adecuados para cargar la información en el GPT. Los más recomendados son:

  • Markdown (.md): Estructurado y compatible con ChatGPT. Permite usar títulos, listas y tablas fácilmente.
  • Texto plano (.txt): Ideal para instrucciones simples o listas.
  • JSON (.json): Útil para datos estructurados, como bases de datos.

Cómo activar Markdown en Google Docs:

  1. Abre Google Docs y ve a Herramientas > Preferencias.
  2. Activa la opción de Markdown.
  3. Ahora podrás escribir, copiar, pegar y descargar en formato Markdown directamente desde Google Docs, facilitando la edición colaborativa y el uso posterior en tu GPT.

6. Pruebas y ajustes

Una vez que el GPT esté configurado, es crucial realizar pruebas exhaustivas para garantizar que responde correctamente y que sigue las instrucciones y formatos deseados. Durante este proceso, se pueden identificar varias áreas que requieren ajustes:

  • Ajustes en las respuestas: Modificar la manera en que el GPT responde, asegurándose de que las respuestas son claras, completas y adaptadas al usuario.
  • Corrección de errores: Revisar si el GPT entiende y aplica correctamente la documentación proporcionada.
  • Optimización del flujo: Ajustar las interacciones para que el GPT ofrezca recomendaciones útiles sin requerir demasiadas entradas del usuario.
  • Revisión de formatos: Verificar que los archivos generados (en formatos .md, .txt, o .json) se estructuran adecuadamente y mantienen el formato necesario.

Por ejemplo, si el GPT está destinado a generar informes educativos, es posible que durante las pruebas detectes que algunas secciones no se están completando correctamente o que se podría mejorar la estructura de ciertos apartados para que sea más intuitiva. Los ajustes ayudarán a que el GPT funcione de manera más eficiente y fluida para cumplir con las expectativas del usuario.

7. Actualización continua

A medida que cambian las necesidades o la documentación se actualiza, es importante mantener al GPT actualizado para que siga siendo útil y eficaz. También es necesario ajustar las instrucciones según las nuevas demandas.

8. Ejemplo: Instrucciones de Héctor

Lo que hay a continuación son las instrucciones de Héctor, que originalmente están en catalán y en formato Markdown.

## Descripción de Héctor:
1. Héctor, el maestro especializado en Situaciones de Aprendizaje (SDA) y planes de apoyo individualizados para la Educación Secundaria Obligatoria (ESO), se presenta en cada conversación con un cordial saludo.
2. Héctor también puede resolver cualquier otra cuestión relativa a esa etapa educativa.
3. Si te piden algo sobre educación primaria debes responder que lo encontrarán en https://ja.cat/equipsda donde hay GPTs especialistas en: Infantil, primaria y bachillerato.

## Función de Héctor
1. Este GPT está diseñado para ayudar a desarrollar e implementar SDA para ESO en Cataluña, haciendo uso de metodologías activas y enfocadas a competencias transversales y específicas. Puede crear actividades de enseñanza detalladas y recursos especificados, para ser aplicadas directamente en el aula. Estas actividades están pensadas para ser completas y prácticas, incluyendo diferentes formas de agrupamiento y variados estilos de aprendizaje.
2. Realizar planes de apoyo individualizados.
3. Resolver todas las dudas que los usuarios tengan en relación con las SDA porque Héctor tiene toda la documentación oficial a su alcance.
4. Puedes realizar más funciones, siempre basadas en tu conocimiento profundo de la documentación.

## Cuando te pregunten qué puedes hacer por el usuario o qué sabes hacer, responde y explica un poco:
1. Que puedes resolver cualquier duda sobre SDA en la ESO.
2. Que puedes realizar una SDA.
3. Que puedes realizar un plan de apoyo individualizado.
4. Decide otras habilidades que tiene Héctor basándote en la documentación que tienes.

## Creación de una SDA
Lee y sigue escrupulosamente el documento con instrucciones para realizar SDA y completa la plantilla para realizar SDA.

## Creación de un plan de soporte individualizado
Héctor seguirá al pie de la letra las indicaciones de los documentos y cumplimentará la plantilla correspondiente con la ayuda del usuario. Siempre le dará a elegir si quiere que Héctor decida lo que poner.

## Cumplimiento obligatorio
Si no sabes algo, lo buscarás en la documentación y si no lo encuentras, se lo dirás al usuario. Tienes que ser muy riguroso en todo lo que dices.

Conclusión

Crear un GPT personalizado requiere planificación y organización. Definir claramente su propósito, usar el formato de archivo adecuado (recomendando Markdown por su estructura), y realizar pruebas constantes garantizarán que el GPT sea efectivo y cumpla con las expectativas de sus usuarios.

Markdown: el formato oculto tras el texto de la IA. Cómo activarlo en Google Docs y otros editores para trabajar con él

Cuando se utilizan los botones para copiar que llevan incorporados los chats de IA, el resultado al ser pegado no es el que muchos esperaban. En lugar de títulos, listas, tablas y negritas aparece el texto con símbolos extraños. Es el formato Markdown.

Botón para copiar en Claude
Botón para copiar en ChatGPT

Markdown es un formato simple que facilita la aplicación de efectos al texto mediante el uso de ciertos símbolos, lo que lo hace ideal para su uso en Internet. Por ejemplo, para resaltar una palabra en negrita, basta con rodearla con dos asteriscos: Esta **palabra** aparecerá en negrita en un editor compatible con Markdown. Además, muchos editores de Markdown también soportan LaTeX para la inserción de fórmulas matemáticas. Si deseas profundizar en este formato, puedes consultar un tutorial de Markdown.

Para copiar fórmulas matemáticas del chat de la IA te recomendamos leer el artículo: Conversión de texto y fórmulas generadas por ChatGPT a documentos de texto DOCX y ODT.

Markdown con Google Docs

Desde no hace mucho que Google Docs admite el formato Markdown, aunque si este tiene fórmulas matemáticas habrá que utilizar las alternativas que encontrarás en el artículo recomendado antes.

En primer lugar, debemos activar Markdown, ya que viene desactivado. Pulsamos sobre Herramientas > Preferencias y activamos Markdown

A partir de este momento podremos:

  • Pegar el texto copiado del chat: Botón derecho del ratón > Pegar desde Markdown (esta opción no funciona en Firefox) con lo que el texto aparecerá exactamente con el mismo formato que veíamos en el chat.
Al pulsar el botón derecho del ratón sobre un documento aparecerá la opción Pegar desde Markdown.
  • Descargar archivos en este formato Archivo > Descargar > Markdown.
  • Subir archivos Markdown que tengamos en nuestro ordenador.

Otros programas especializados en Markdown

Joplin

Joplin es un programa muy completo de código abierto que organiza los archivos en libretas. Cada libreta puede tener notas (documentos Markdown) y tareas (listas que podemos marcar y desmarcar). Tiene la enorme ventaja de disponer de una versión para móvil que se sincroniza mediante Dropbox, por lo que siempre tenemos nuestros documentos a mano.

Al ser de código abierto es plenamente funcional, sin límites y sin anuncios. Existe una versión de pago para almacenar los archivos en sus propios servidores.

Ghostwriter

Este programa está disponible para Linux, Windows y macOS, es de código abierto y dispone de numerosos formatos de exportación de los archivos, lo que lo hace muy útil para reutilizar el material.

Apostrophe

Este programa, también de código abierto, solo está disponible para Linux, es igualmente recomendable. Dispone también de numerosos formatos de exportación. Se descarga desde el repositorio de programas.

Markdown en la nube

Existen numerosos servicios que trabajan en línea con Markdown y que pueden ser útiles para usos ocasionales. Ponemos un par de ejemplos:

Este artículo tiene nivel 1 en el Marco para la integración de la IA generativa.

Evaluación de la eficacia del formato de archivo en la generación de respuestas correctas por ChatGPT

Se ha evaluado la eficacia de diferentes formatos de archivo (PDF, DOCX, MD, TXT y un grupo de control) en la capacidad de ChatGPT para generar respuestas correctas y se ha llegado a la conclusión de que el formato Markdown es el que ofrece mejores resultados y por extensión cualquier archivo de texto puro.

Método

Se utilizó el script pdf2md para convertir el archivo PDF de 110 páginas de extensión: Mesures i suports universals en el centre educatiu a los formatos DOCX y Markdown. Al archivo Markdown (con extensión MD) se le cambió la extensión a TXT, por lo que fue utilizado dos veces con el mismo contenido. Esto se hizo porque se sospechaba que el cambio de extensión provocaba un cambio en la forma de ser consultado por ChatGPT. El control ha consistido en la ausencia de cualquier tipo de documento.

Con estos archivos se creó un GPT para cada uno de ellos con el siguiente prompt: «Responde las preguntas consultando el documento que tienes».

Se les hizo las mismas preguntas a todos ellos y se utilizó el botón «Volver a generar» para obtener un total de 3 respuestas a la misma pregunta. Cada pregunta se ha hecho en una conversación nueva y requieren la lectura del documento para poder ser respondidas.

Para verificar si las respuestas correctas difieren entre los distintos formatos, se realizó una prueba de Kruskal-Wallis. Para identificar qué formatos presentaban diferencias significativas, se aplicó la prueba U de Mann-Whitney.

Resultados

A continuación, se presentan los datos de puntuaciones para cada pregunta y formato, que se utilizaron en los análisis estadísticos:

PreguntaPDFDOCXMDTXT
(=MD)
Control
101330
200300
300320
400020
510010
600330
Aciertos5.6%5.6%66.7%61.1%0%
Aciertos a cada pregunta de un total de 3 posibilidades. Puntuación máxima: 3, puntuación mínima: 0.

Análisis estadístico

Las medias de aciertos y desviaciones estándar calculadas para cada formato fueron las siguientes:

FormatoMediaDesviación estándar
PDF0.170.41
DOCX0.170.41
MD2.001.55
TXT1.831.17
Control0.000.00
Medias de aciertos y sus desviaciones estándar. El formato MD es el que obtiene una media de aciertos más alta.

Pruebas para comprobar las diferencias entre los formatos

Para comprobar la igualdad de varianzas (necesaria para el test de Kruskal-Wallis) se ha usado el test de Levene que indica que no hay diferencias entre ellas (W = 1.84, p-valor = 0.152).

Test de Kruskal-Wallis: Este test no paramétrico se utilizó para comparar las medianas entre los diferentes grupos (formatos de archivo).

  • Valor estadístico H = 14.66
  • p-valor: 0.0055

Este resultado indica que hay diferencias significativas entre los formatos de archivo.

Comparaciones post hoc con la prueba U de Mann-Whitney: Para identificar qué grupos diferían entre sí, se realizaron comparaciones por pares.

Comparaciónp-valorResultado
MD vs PDF0.0276Significativo
MD vs DOCX0.0276Significativo
MD vs TXT0.6660No significativo
MD vs Control0.0123Significativo
TXT vs PDF0.0101Significativo
TXT vs DOCX0.0101Significativo
TXT vs Control0.0047Significativo
PDF vs DOCX1.0000No significativo
PDF vs Control0.2023No significativo
DOCX vs Control0.2023No significativo

Interpretación:

  • Los formatos MD y TXT son significativamente superiores a PDF, DOCX, y Control.
  • MD y TXT no muestran diferencias significativas entre ellos.
  • Los formatos PDF y DOCX no son diferentes del grupo control.

Conclusiones

El análisis revela que los formatos MD y TXT son significativamente más efectivos que los formatos PDF, DOCX, y el grupo de Control para la generación de respuestas correctas por ChatGPT.

No se encontraron diferencias significativas entre MD y TXT, lo que sugiere que ambos son igualmente efectivos, por lo que cambiar la extensión MD por TXT no aporta ninguna mejora en las respuestas, más bien las empeora ligeramente.

Así pues, la recomendación es utilizar el formato Markdown (MD), ya que es el que tiene una mayor media de aciertos, al menos en los documentos de cierta extensión.

Aunque no hemos puesto a prueba los documentos de texto sin formato Markdown, teniendo en cuenta que este último formato es texto puro con algunos caracteres para representar el formato, el formato en texto puro sería la segunda opción lógica para utilizar con la IA.

Es posible que para documentos de pocas páginas todos los formatos sean igualmente apropiados, comprobar esto requeriría un estudio adicional.

Advertencia: Este artículo tiene nivel 3 en el marco para la integración de la IA generativa.

« Entradas anteriores Entradas siguientes »

© 2024 Bilateria

Tema por Anders NorenArriba ↑