Un proyecto de código abierto en GitHub llamado "system-prompts-and-models-of-ai-tools" ha generado un gran interés, acumulando 30.5K estrellas y convirtiéndose en un recurso popular para desarrolladores e investigadores de IA. Según AIbase, este proyecto reúne las indicaciones del sistema y la configuración del modelo de 9 herramientas de IA principales, con más de 6500 líneas de código. Cubre v0, Cursor, Manus, Same.dev, Lovable, Devin, Replit Agent, Windsurf Agent y VSCode Agent, ofreciendo una valiosa referencia para comprender a fondo el diseño de las herramientas de IA. Los detalles relevantes se han publicado a través de GitHub y las redes sociales.

image.png

Puntos clave: Más de 6500 líneas de indicaciones, desentrañando 9 herramientas de IA

El proyecto "system-prompts-and-models-of-ai-tools", mediante una organización sistemática, proporciona a los desarrolladores una completa biblioteca de indicaciones para herramientas de IA. AIbase ha resumido su contenido principal:

Cobertura de 9 herramientas: incluye v0 (UI generativa de Vercel), Cursor (editor de código con IA), Manus (agente inteligente), Same.dev, Lovable (desarrollo colaborativo), Devin (ingeniero de software con IA), Replit Agent, Windsurf Agent y VSCode Agent, abarcando herramientas de código abierto y propietario.

Más de 6500 líneas de indicaciones: proporciona más de 6500 líneas de indicaciones del sistema y configuraciones de herramientas internas, revelando la definición de roles, las restricciones de comportamiento y el diseño de funciones de cada herramienta. Por ejemplo, Cursor enfatiza la seguridad en la modificación del código, mientras que Manus cuenta con más de 200 líneas de instrucciones complejas.

Perspectiva del diseño: mediante el análisis de las indicaciones, los desarrolladores pueden comprender cómo las herramientas de IA optimizan la generación de código mediante instrucciones, reducen las alucinaciones y mejoran la experiencia del usuario. Por ejemplo, Cursor utiliza restricciones para normalizar la salida de la IA y reducir la tasa de errores.

Valor para el aprendizaje y la investigación: adecuado para profesionales de la IA, investigadores de ingeniería de prompts y empresas emergentes, para aprender a diseñar indicaciones del sistema eficientes o aprovechar las mejores prácticas para desarrollar herramientas de IA personalizadas.

AIbase observa que las pruebas de la comunidad muestran que las indicaciones de Cursor, mediante la especificación clara de la seguridad y las normas de uso de las herramientas, reducen significativamente los problemas de "alucinaciones" en la generación de código, mientras que las instrucciones complejas de Manus muestran la capacidad de procesamiento de tareas múltiples de la IA de tipo agente.

image.png

Arquitectura técnica: Estructura y función de las indicaciones del sistema

El proyecto no solo proporciona las indicaciones originales, sino que también revela la lógica de diseño detrás de las herramientas de IA. AIbase analiza que sus puntos fuertes técnicos incluyen:

Definición y restricciones de roles: por ejemplo, el agente Cascade de Windsurf se define como un "asistente de programación que actúa de forma autónoma", basado en el paradigma AI Flow, enfatizando la ejecución de tareas independientes; Cursor, por su parte, utiliza el modelo Claude 3.7, centrándose en la usabilidad y seguridad de la modificación del código.

Prácticas de ingeniería de prompts: las indicaciones mencionan con frecuencia las "mejores prácticas". Cursor utiliza instrucciones estructuradas para reducir la desviación de la IA, mientras que Manus optimiza el procesamiento de tareas complejas mediante razonamiento en múltiples pasos.

Diseño modular: las indicaciones de cada herramienta se dividen en descripción de roles, reglas de comportamiento, llamadas a herramientas y formato de salida, lo que facilita la reutilización o personalización por parte de los desarrolladores. Por ejemplo, las indicaciones de generación de UI de v0 se pueden utilizar directamente en el desarrollo de componentes React.

Advertencias de seguridad: el proyecto destaca la necesidad de que las empresas emergentes de IA protejan las indicaciones y la configuración del modelo, recomendando el servicio ZeroLeaks para prevenir fugas de datos, lo que pone de manifiesto la concienciación sobre la seguridad en el sector.

AIbase considera que el valor del proyecto radica en su sistematicidad y transparencia, proporcionando casos prácticos para la ingeniería de prompts, similar a un "libro de texto sobre el diseño de herramientas de IA".

Escenarios de aplicación: Desde el aprendizaje hasta el desarrollo empresarial

El rico contenido del proyecto "system-prompts-and-models-of-ai-tools" lo hace adecuado para diversos escenarios. AIbase resume sus principales aplicaciones:

Aprendizaje de ingeniería de prompts: los desarrolladores pueden analizar las indicaciones de herramientas como Cursor y Devin para aprender a diseñar instrucciones eficientes y optimizar la salida de LLM, adecuado para ingenieros e investigadores de IA.

Desarrollo de herramientas de IA: las empresas emergentes pueden aprovechar las instrucciones de colaboración de Lovable o la lógica de generación de UI de v0 para desarrollar productos de IA personalizados y acelerar la validación de prototipos.

Educación y formación: las universidades y los centros de formación pueden utilizar la biblioteca de indicaciones como recurso didáctico para ayudar a los estudiantes a comprender la lógica de comportamiento y los principios de diseño de los sistemas de IA.

Seguridad y cumplimiento: las empresas pueden consultar las recomendaciones del proyecto y utilizar herramientas como ZeroLeaks para detectar riesgos de fuga de indicaciones y garantizar la seguridad de los sistemas de IA.

Los comentarios de la comunidad muestran que los desarrolladores, al estudiar las indicaciones de Devin, han optimizado la capacidad de procesamiento de tareas múltiples de sus propios agentes de IA, reduciendo la tasa de errores en la generación de código en aproximadamente un 10%. AIbase observa que las 30.5K estrellas del proyecto reflejan la alta demanda de los desarrolladores por un diseño de IA transparente.

Guía de inicio rápido: Acceso e investigación rápida

AIbase ha averiguado que el proyecto ya está disponible gratuitamente a través de GitHub (github.com/x1xhlol/system-prompts-and-models-of-ai-tools), incluyendo archivos de indicaciones detallados e instrucciones de uso. Los desarrolladores pueden empezar rápidamente siguiendo estos pasos:

Acceder al repositorio de GitHub, clonar o bifurcar el proyecto (github.com/x1xhlol/system-prompts-and-models-of-ai-tools);

Explorar el directorio de indicaciones de las 9 herramientas (como Cursor Prompts, Devin AI), consultar los archivos específicos (como cursor_agent.txt, devin.txt);

Utilizar Python u otros scripts para analizar las indicaciones, extraer la definición de roles, las llamadas a herramientas o la lógica de restricciones;

Consultar ZeroLeaks (zeroleaks.vercel.app) para realizar una auditoría de seguridad y proteger el propio sistema de IA.

La comunidad recomienda priorizar el estudio de las indicaciones de Cursor y v0, ya que su estructura es clara y sus escenarios de aplicación son amplios. AIbase recuerda que el proyecto ha dejado de utilizar GitHub Issues, y recomienda enviar sugerencias a través de la página System Prompts Roadmap & Feedback.

Comentarios de la comunidad y dirección de mejora

Tras su lanzamiento, "system-prompts-and-models-of-ai-tools" ha recibido excelentes críticas de la comunidad por su exhaustividad y valor educativo. Los desarrolladores lo califican como "una referencia invaluable para el diseño de herramientas de IA", y las indicaciones de Cursor y Manus se consideran ejemplos de ingeniería de prompts. Sin embargo, algunos usuarios señalan la falta de indicaciones para herramientas de generación de vídeo, sugiriendo la inclusión de ejemplos de Runway o Pika. La comunidad también espera una documentación más detallada que explique el contexto y los escenarios de aplicación de cada indicación. El equipo de desarrollo ha respondido que en el futuro ampliará la cobertura de herramientas y optimizará la documentación. AIbase predice que el proyecto podría integrarse con el protocolo MCP o ComfyUI para construir un flujo de trabajo de prueba y optimización de indicaciones.

Perspectivas futuras: Catalizador de la transparencia en el diseño de IA

La popularidad de "system-prompts-and-models-of-ai-tools", con 30.5K estrellas, demuestra la necesidad de un diseño de IA transparente. AIbase considera que su modelo de código abierto no solo impulsa la popularización de la ingeniería de prompts, sino que también ofrece a las empresas emergentes de IA una doble pauta de seguridad y diseño. La comunidad ya está estudiando su integración con el flujo de trabajo de Dream 3.0 o Lovable 2.0 para construir un ecosistema que abarque desde el diseño de indicaciones hasta el desarrollo de aplicaciones. A largo plazo, el proyecto podría convertirse en un "mercado de indicaciones de IA", ofreciendo servicios compartidos y personalizados, similar al ecosistema de modelos de Hugging Face. AIbase espera una mayor expansión del proyecto en 2025, especialmente en el ámbito de la IA multimodal y la protección de la seguridad.

Dirección del proyecto: https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools