Un motor de inteligencia de enjambre simple y universal, prediciendo todo
A Simple and Universal Swarm Intelligence Engine, Predicting Anything
MiroFish es un motor de predicción con IA de nueva generación basado en tecnología multi-agente. Mediante la extracción de información semilla del mundo real (como noticias de última hora, borradores de políticas o señales financieras), construye automáticamente un mundo digital paralelo de alta fidelidad. En este espacio, miles de agentes inteligentes con personalidades independientes, memoria a largo plazo y lógica conductual interactúan libremente y evolucionan socialmente. Puedes inyectar variables dinámicamente desde una "perspectiva divina" para deducir con precisión las trayectorias futuras — ensaya el futuro en una simulación digital, y toma decisiones ganadoras tras infinitas simulaciones.
Solo necesitas: Subir materiales semilla (informes de análisis de datos o historias de novelas interesantes) y describir tus requisitos de predicción en lenguaje natural
MiroFish devolverá: Un informe de predicción detallado y un mundo digital de alta fidelidad con el que puedes interactuar profundamente
MiroFish se dedica a crear un espejo de inteligencia de enjambre que mapea la realidad. Capturando la emergencia colectiva desencadenada por interacciones individuales, superamos las limitaciones de la predicción tradicional:
- A nivel macro: Somos un laboratorio de ensayo para tomadores de decisiones, permitiendo que políticas y relaciones públicas se prueben con riesgo cero
- A nivel micro: Somos una caja de arena creativa para usuarios individuales — ya sea deducir finales de novelas o explorar escenarios imaginativos, todo puede ser divertido, juguetón y accesible
Desde predicciones serias hasta simulaciones lúdicas, hacemos que cada "qué pasaría si" vea su resultado, haciendo posible predecir cualquier cosa.
Visita nuestro entorno de demostración en línea y experimenta una simulación de predicción sobre eventos de opinión pública que hemos preparado para ti: mirofish-live-demo
Haz clic en la imagen para ver el video completo de demostración de predicción usando el "Informe de Opinión Pública de la Universidad de Wuhan" generado por BettaFish
Haz clic en la imagen para ver la predicción profunda de MiroFish sobre el final perdido basada en cientos de miles de palabras de los primeros 80 capítulos de "Sueño en el Pabellón Rojo"
Predicción Financiera, Predicción de Noticias Políticas y más ejemplos próximamente...
- Construcción del Grafo: Extracción de semillas & Inyección de memoria individual/colectiva & Construcción de GraphRAG
- Configuración del Entorno: Extracción de relaciones de entidades & Generación de personas & Inyección de parámetros de simulación por Agent
- Simulación: Simulación paralela de doble plataforma & Análisis automático de requisitos de predicción & Actualización dinámica de memoria temporal
- Generación de Informes: ReportAgent con un rico conjunto de herramientas para interacción profunda con el entorno post-simulación
- Interacción Profunda: Conversa con cualquier agente en el mundo simulado & Interactúa con ReportAgent
MiroFish soporta dos backends de almacenamiento de memoria para el grafo de conocimiento:
Servicio cloud de gestión de memoria con funcionalidad de grafo integrada.
Ventajas:
- Sin necesidad de configuración local
- Escalado automático
- API ready-to-use
Configuración:
MEMORY_BACKEND=zep # Por defecto, puede omitirse
ZEP_API_KEY=tu_zep_api_keyRequiere solo una clave API de Zep Cloud: https://app.getzep.com/
Backend local usando Neo4j con Graphiti para extracción avanzada de entidades.
Ventajas:
- Control total de datos (offline/local)
- Sin dependencias de servicios externos
- Extracción de entidades LLM-powered
Configuración:
MEMORY_BACKEND=graphiti
NEO4J_URI=bolt://localhost:7687
NEO4J_USER=neo4j
NEO4J_PASSWORD=mirofish2024Iniciar Neo4j con Docker:
docker compose -f docker/graphiti/docker-compose.yml up -dNeo4j UI estará disponible en http://localhost:7474 (usuario: neo4j, contraseña: mirofish2024)
| Herramienta | Versión | Descripción | Verificar Instalación |
|---|---|---|---|
| Node.js | 18+ | Entorno de ejecución frontend, incluye npm | node -v |
| Python | ≥3.11, ≤3.12 | Entorno de ejecución backend | python --version |
| uv | Última | Gestor de paquetes Python | uv --version |
# Copiar el archivo de configuración de ejemplo
cp .env.example .env
# Editar el archivo .env e introducir las claves API necesariasVariables de Entorno Requeridas:
# Configuración de API LLM (soporta cualquier API LLM con formato OpenAI SDK)
# Recomendado: Modelo Qwen-plus de Alibaba via Plataforma Bailian: https://bailian.console.aliyun.com/
# Alto consumo, primero prueba simulaciones con menos de 40 rondas
LLM_API_KEY=tu_api_key
LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
LLM_MODEL_NAME=qwen-plus
# Configuración de Zep Cloud
# La cuota mensual gratuita es suficiente para uso simple: https://app.getzep.com/
ZEP_API_KEY=tu_zep_api_key# Instalación con un solo clic de todas las dependencias (raíz + frontend + backend)
npm run setup:allO instalar paso a paso:
# Instalar dependencias Node (raíz + frontend)
npm run setup
# Instalar dependencias Python (backend, crea automáticamente el entorno virtual)
npm run setup:backend# Iniciar frontend y backend simultáneamente (ejecutar desde la raíz del proyecto)
npm run devURLs de Servicio:
- Frontend:
http://localhost:3000 - Backend API:
http://localhost:5001
Iniciar Individualmente:
npm run backend # Iniciar solo el backend
npm run frontend # Iniciar solo el frontend# 1. Configurar variables de entorno (igual que despliegue desde fuente)
cp .env.example .env
# 2. Descargar imagen e iniciar
docker compose up -dLee el archivo .env desde el directorio raíz por defecto, mapea los puertos 3000 (frontend) / 5001 (backend)
Se proporciona una dirección mirror para descarga más rápida como comentarios en
docker-compose.yml, reemplaza si es necesario.
Para un flujo de desarrollo más conveniente, proporcionamos scripts de inicio/detención:
Linux/Mac:
# Iniciar todo (detecta backend de memoria automáticamente)
./scripts/iniciar.sh
# Detener todo
./scripts/detener.shWindows (CMD/PowerShell):
# Iniciar
scripts\iniciar.bat
# Detener
scripts\detener.batCaracterísticas del script iniciar.sh/bat:
- Detecta el backend de memoria configurado (
MEMORY_BACKEND) - Si es
graphiti: inicia Neo4j con Docker automáticamente - Limpia procesos residuales de ejecuciones anteriores
- Muestra URLs de servicio (Frontend, Backend, Neo4j UI si aplica)
- Manejo limpio de
Ctrl+Cpara detener todo
Configuración del backend de memoria:
# Backend de memoria a usar: "zep" (por defecto) o "graphiti"
MEMORY_BACKEND=graphiti
El equipo de MiroFish está contratando personal a tiempo completo y pasantes. Si te interesa la simulación multi-agente y las aplicaciones de LLM, envía tu CV a: mirofish@shanda.com
¡MiroFish ha recibido apoyo estratégico e incubación de Shanda Group!
El motor de simulación de MiroFish está potenciado por OASIS (Open Agent Social Interaction Simulations). ¡Agradecemos sinceramente al equipo de CAMEL-AI por sus contribuciones de código abierto!






