La IA no te quita el trabajo de pensar. Te obliga a pensar mejor.

Construyendo Savia, estoy comprobando que la IA amplifica lo que tú ya sabes. Si llegas sin criterio, amplifica el caos. Si llegas con contexto y proceso, amplifica la velocidad. 

En el último post sobre cómo estoy montando Savia os conté todo lo que hice antes de escribir una línea de código: documentos fundacionales, sistema de skills, gobernanza del proyecto. Todo ese contexto estratégico que, para mí, es lo que separa el “vibe coding” real del “pídele cosas a la IA y cruza los dedos para que te devuelva algo sensato”.

Después de ese trabajo de contexto inicial, llegó el momento de arrancar y ver si todo ese trabajo previo servía realmente para algo. Y lo primero que descubrí es que construir algo con IA cuyo resultado quieres controlar bien no se parece demasiado a escribir un prompt y esperar a la magia.

No fue abrir un editor y decirle “hazme una app de mentoría”. Fue algo mucho más parecido a entrar en una sala con un equipo nuevo que acabas de formar, sentarte con ellos, y decir: “vale, ¿por dónde empezamos?”.

“Equipo, ya tenemos toda la info en la mesa. ¿Por dónde arrancamos?”

En lugar de dar instrucciones, hice algo que cualquier PM reconocerá: pedí una propuesta.No le dije a Claude qué hacer. Le pedí que me dijera qué creía que deberíamos hacer con todo el contexto que le había dado previamente y teniendo unos objetivos claros definidos. El prompt literal fue este:

« Claude, he terminado de subir toda la documentación del proyecto Savia. Activa todas tus Skills y asume tu rol de Staff PM. No me pidas instrucciones. Quiero que seas tú quien me proponga la hoja de ruta inmediata para las próximas 24 horas. ¿Qué es lo primero que deberíamos definir para que este MVP sea una realidad cuanto antes? Presenta tu propuesta y justifícala. »

Esto es lo que muchos llaman un prompt de arranque pasivo. Es el equivalente a entrar en la sala de reuniones y decir: “equipo, ya tenéis todo el contexto. Decidamos por dónde empezar, por qué y cómo”.

Si la propuesta que te devuelve es buena, sabes que el contexto que preparaste está bien construido. Y si es mala, sabes exactamente qué falta. Es un test del sistema, no un acto de fe.

La propuesta fue buena. Proponía empezar por dedicar algo más de tiempo a enriquecer el contexto que teníamos: definir el problema, la audiencia, la propuesta de valor, anticipar posibles problemas y riesgos, y definir las métricas de éxito antes de tocar nada técnico. Exactamente lo que yo habría hecho.

El Product Brief y el análisis de competencia

A partir de ahí, el proceso fue product discovery normal, pero a una velocidad de x5 o x10. Definimos el problema que resolvemos, para quién, y cómo. Establecimos la estrategia de lanzamiento, los objetivos y las métricas que nos dirán si vamos bien. Consolidamos todo en un Product Brief.

Después le pedí que investigara competidores. Claude analizó 13 plataformas de mentoría — desde ADPList (800K usuarios, respaldada por Sequoia) hasta asociaciones españolas como SECOT — y produjo un análisis que yo habría tardado días en hacer.

Es cierto que se fue dejando algunas fuera. Pero le pedí que estuviera atento a un tuit donde pedí a la comunidad si tenía más referencias y las fue incorporando a su análisis.

Sobre su análisis, yo le fui dando feedback de cuáles consideraba competidores más directos y cuáles no, y los motivos. Eso le ayudó a saber en qué fijarse y entender cuál era mi argumentación.

La conclusión más importante: no existe competidor directo que combine mentoría profesional 1:1, multi-sector, en español, para profesionales en carrera corporativa. ADPList es la amenaza principal pero es tech-focused, en inglés, con problemas de calidad y una UX cuestionable. Ventana de oportunidad: 6-12 meses.

Con esos insights, invoqué la skill de PMM (Product Marketing Manager) para iterar los copies y reforzar lo que nos hacía diferentes. Cada palabra de nuestra landing ahí está porque un competidor no la tiene apropiada.

Disclaimer: con el resultado del PMM no estoy especialmente contenta. Es una tarea pendiente ver cómo darle mejores skills para iterar la home más adelante.

La priorización: comparar iniciativas para decidir qué entraba en el MVP y qué no

Aquí vino una de las sesiones más útiles de toda esta fase: el ICE scoring para decidir qué entraba en el MVP y qué no. Pedí a Claude montar una sesión que lanzara en paralelo tres agentes: Product Manager, Product Designer y Software Engineer. Replicar un product trío en modo agéntico, vaya.

La sesión la liderá el Staff PM, pero involucró también al Designer y al Software Engineer — porque el Impact lo evalúa producto, pero el Ease lo evalúa quien va a construirlo.

Evaluamos cada feature candidata en tres dimensiones: Impact (¿cuánto mueve la métrica norte?), Confidence (¿cómo de seguros estamos de que podemos hacerlo?) y Ease (¿cómo de fácil es implementarlo?).

Las features core del MVP (signup, perfiles, búsqueda, solicitudes, coordinación, dashboards, emails, NPS) salieron todas por encima del threshold de 6. La más alta fue Signup con un 9.67 — bloqueante absoluto, sin mentores no hay producto. La más baja fue Coordinación con un 7.67, donde el Ease subió 2 puntos cuando decidimos hacer un sistema híbrido (coordinación en plataforma + manual como fallback) en vez del sistema completo.

Pero lo interesante fue lo que se quedó fuera: vacation mode para mentores, valoraciones públicas, matching automático por algoritmo, sistema de referrals, rol dual (ser mentor y mentee a la vez). Todas ideas tentadoras. Todas con un ICE que no justificaba meterlas en un MVP.

Disclaimer: viendo el feedback inicial y teniendo en cuenta mi criterio, creo que el ICE no evalúa bien la feature del rol dual. Es una de las cosas que creo que vamos a tener que incorporar antes.

Donde la cosa se pone interesante: el debate a 3 bandas

Cuando tocó diseñar los wireframes, los fuimos creando flujo a flujo. Y cuando estuvieron los 8 listos, hice algo que también fue un momento guay para el proyecto.

Volví a activar tres skills distintas — Staff PM, UX Designer y Critical Auditor — y les pedí que revisaran cada wireframe desde su perspectiva. No una revisión genérica. Una auditoría estructurada donde cada rol aplica sus propios criterios.

El resultado fue una sesión que produjo un informe de validación con 44 issues detectados. Pero lo interesante no es el número. Es cómo cada perspectiva veía cosas distintas en el mismo diseño. Por ejemplo, en el wireframe de onboarding para mentores:

  • El Staff PM detectó que la bio de 100-500 caracteres era una barrera alta con riesgo de 40-60% de abandono. Propuso añadir ejemplos y templates.
  • El UX Designer vio que la preview del perfil no se actualizaba en tiempo real — mostraba placeholders estáticos en lugar de lo que el mentor iba escribiendo. También encontró que faltaba drag & drop para la foto y que el contador de caracteres no funcionaba.
  • El Critical Auditor encontró el issue más grave: no había autosave. Un mentor podía pasar 15 minutos rellenando su perfil, cerrar el navegador por error, y perderlo todo. Lo clasificó como P0 bloqueante y estimó un 30-40% de abandono por frustración.

Ese P0 no lo habría encontrado yo sola. O lo habría encontrado después, cuando algún mentor real hubiese perdido sus datos y me hubiese escrito frustrado.

Hubo otro momento más pequeño que también me enseñó algo interesante. Estaba revisando los wireframes antes de empezar a implementar y vi dos cosas que me chirriaban: un badge de “Perfil verificado” sin proceso de verificación real, y un botón de “Favorito” desactivado con un “Disponible próximamente”.

Le pedí a Claude que lo analizara con la skill de Staff PM. No le dije “quita esto”. Le pregunté si deberíamos quitarlo. Y aplicó exactamente los frameworks que yo le había enseñado semanas antes: articuló el JTBD de cada elemento, calculó el ICE Score (4.67 — por debajo del threshold), detectó que el badge era un deceptive pattern con riesgo legal, y recomendó eliminar ambos. Cinco minutos, dos decisiones de producto, y varias líneas de código menos tiradas.

La IA amplifica lo que tú ya sabes

Si tuviera que quedarme con una sola cosa de estos primeros días, es esta: la IA amplifica lo que tú ya sabes. Si llegas sin criterio, amplifica el caos. Si llegas con contexto y proceso, amplifica la velocidad.

Trabajar con Claude Code como PM no se parece a programar. Se parece más a dirigir un equipo muy capaz que necesita que tú tengas las ideas claras. Que ejecuta a una velocidad brutal, pero que depende de que tú entiendas lo que está pasando — no solo aceptes resultados.

No puedes delegar el criterio. Si no entiendes por qué Claude propone algo, tienes un problema. Si no cuestionas lo que genera, tienes un problema mayor. La IA no piensa por ti. Te obliga a pensar mejor, porque te devuelve las cosas tan rápido que no puedes esconderte detrás de “ya lo revisaré luego”.

En los próximos posts contaré qué pasó cuando empezamos a codear de verdad — infraestructura, decisiones de stack, los primeros despliegues. Pero si algo quiero que os llevéis de este, es que la diferencia entre “vibe coding” como lo vende el hype y cómo funciona realmente es enorme. No es magia. Es proceso. Pero es proceso a una velocidad que cambia las reglas del juego.

Y vosotros… ¿habéis probado a trabajar así con IA? ¿Pedís propuestas o dais instrucciones?

Si has llegado hasta aquí y te apetece mentorizar o ser mentorizado en Savia, regístrate. Si no te convence el proyecto después de leer esto, dame feedback y cuéntame por qué.

Artículos anteriores de la serie:

Savia está viva. Y así empecé en Claude antes de escribir una sola línea de código.

En el último post os conté que me había propuesto algo que llevaba años postergando: construir un producto digital con mis propias manos, sin saber programar, usando IA como equipo técnico. La idea es Savia, una plataforma de mentoría 1:1 que conecta profesionales con experiencia real con personas que están arrancando su carrera.

Pues bien, Savia ya existe. Está viva en savia.company, desplegada en producción, con su dominio propio, sus emails transaccionales funcionando y su sistema de sesiones coordinándose en tiempo real.

Pero no vengo a vender humo. Esto es un lanzamiento pequeño, deliberado, casi artesanal. Se que van a fallar cosas.

He hecho mucho testing y hay cosas que me ha costado solucionar. Cuando pensaba que ya lo tenía casi todo, el onboarding petaba cuando se hacía entre varios dispositivos (te registrabas en desktop pero validabas email desde móvil, por ejemblo).

Como decía, van a fallar cosas. Así que la idea es empezar a enseñárselo a gente real para recoger feedback antes de iterar. Si te pica la curiosidad, entra, explora y cuéntame qué te parece. De verdad. Escríbeme a mentors.savia.app@gmail.com con lo que sea: lo que te gusta, lo que no entiendes, lo que te chirría. Ese feedback ahora mismo vale oro.

Dicho esto, lo que quiero contar hoy no es que la app esté en producción. Es lo que pasó antes de que existiera una sola línea de código. Porque si algo he aprendido en este tiempo de experimentación, es que la parte más importante del “vibe coding” no tiene nada que ver con código.

La trampa del “empieza a pedirle cosas” a Claude

Cuando la mayoría de la gente piensa en construir algo con IA, se imagina abriendo un editor, escribiendo “hazme una aplicación de mentoría” y viendo cómo aparece magia en la pantalla. Y sí, la IA puede generar código. Pero el código sin contexto estratégico es ruido. Es como contratar a un equipo de ingeniería el día 1 sin tener claro qué problema resuelves, para quién, ni qué considerarás “éxito”.

Empecé frenando. No abriendo el editor. No escribiendo ni un prompt técnico. Primero invertí tiempo en construir el cerebro del proyecto.

Dediqué varios días — sí, días — a crear lo que llamo el “ecosistema estratégico” de Savia dentro de Claude Code. Y fue, con diferencia, la inversión de tiempo con mayor retorno de todo el proyecto.

Os cuento cómo lo hice, paso a paso.

Fase 1: Las custom instructions — enséñale quién eres.

Lo primero fue configurar las custom instructions de Claude. Esto es, básicamente, un archivo donde le dices a la IA quién eres y cómo quieres que trabaje contigo.

Parece una tontería, pero pensadlo así: cuando arrancas a trabajar con un equipo nuevo, lo primero que haces es darle contexto. Le cuentas tu experiencia, tu rol, tu nivel técnico, qué tipo de comunicación prefieres. No le dices “hazme un plan estratégico” en frío.

En mis custom instructions incluí:

  • Mi perfil profesional: 13 años en producto B2B, roles de PMM a CPO, sectores donde he trabajado.

  • Mi nivel técnico real: Sé diseñar sistemas pero no he programado nunca. No me hables como si supiera programar, pero tampoco me trates como si no supiera qué es una API o un webhook.

  • Cómo quiero que me hable: Directo, sin paternalismos, con opinión propia. Si algo es mala idea, que me lo diga. Si hay una decisión técnica que tomar, que me explique los trade-offs como se los explicaría a una PM senior, no a una estudiante.

¿Por qué importa esto? Porque la IA no es genérica si tú no eres genérico con ella. El nivel de las respuestas que obtienes es directamente proporcional a la calidad del contexto que le das. Créeme, le di vueltas a esto. Muchas vueltas. Y la diferencia entre un Claude “por defecto” y un Claude que sabe quién eres es abismal.

Fase 2: La mente estratégica — documentos fundacionales

Una vez Claude sabía quién soy y cómo trabajar conmigo, tocaba darle el contexto completo del proyecto. No un brief de dos párrafos. Un ecosistema de documentos estratégicos, como los que crearía para cualquier producto real en una empresa.

Perfil_Fundador.md — El “quién” y el “por qué”

Este documento responde a las preguntas que normalmente no se escriben: ¿por qué hago esto? ¿Qué me motiva de verdad? ¿Cuáles son mis miedos técnicos? ¿Qué quiero aprender en el proceso?

Suena a ejercicio de coaching, pero tiene una función muy práctica: le da a la IA el marco para tomar decisiones alineadas con tu intención real. Cuando más adelante Claude tiene que elegir entre una solución más compleja pero “correcta” y una más simple que encaja con mis objetivos de aprendizaje, este documento es el que guía esa decisión.

Vision_y_Contexto.md — El “qué”

Aquí va todo el contenido alrededor de la idea de Savia: el mercado de mentoría, los dos perfiles de usuario (mentores con experiencia real y mentees que arrancan su carrera), el gap que existe en las plataformas actuales, y la visión a medio plazo.

Este es el documento que cualquier PM reconocería como “el contexto del producto”. Nada revolucionario en su formato, pero crítico para que la IA entienda qué estamos construyendo y para quién.

Operating_Manual.md — El “cómo”

Este fue el más denso y probablemente el más importante de los tres. Es, literalmente, el manual de gobernanza del proyecto. Incluye:

  • Tono y comunicación: Cómo me habla Claude, cuándo es proactivo, cuándo pide validación, cuándo sube código sin aprobación o cuándo le dejo acceder a archivos sin que me pregunte.

  • Rol dominante: Staff PM. Claude actúa como mi equipo, pero yo soy la PM. Las decisiones de producto son mías. Las decisiones de implementación son suyas, salvo que afecten a la experiencia de usuario.

  • Nivel de autonomía: Dónde puede moverse solo (refactors, optimizaciones, bugs evidentes) y dónde tiene que parar y preguntar (cambios en flujos de usuario, decisiones de arquitectura, cualquier cosa visible para el usuario final).

  • PRD completo del MVP:

    • Problema (por qué existe Savia) que resolvemos

    • Usuarios para los que lo resolvemos (personas detalladas de mentor y mentee)

    • Solución (definición en una frase + happy path)

    • North Star metric + criterios de éxito

    • Scope v1 (features del MVP)

    • Antifeatures (cosas explícitamente fuera del MVP)

    • Estrategia de activación (supply-first, empezar por mentores)

    • Riesgos y mitigación

    • Timeline

¿Por qué meto el PRD dentro del Operating Manual? Porque quiero que cada vez que Claude trabaje en Savia, tenga presente no solo qué construir, sino dentro de qué marco de decisiones hacerlo. El PRD sin gobernanza es una lista de features. La gobernanza sin PRD es burocracia. Juntos, son el sistema operativo del proyecto.

Fase 3: El sistema de Skills — un equipo, no un chatbot

Aquí es donde la cosa se pone interesante. Una vez tienes el contexto estratégico, necesitas que la IA pueda cambiar de sombrero según lo que toque hacer. No es lo mismo revisar una decisión de arquitectura que escribir el copy de un email o auditar la accesibilidad de un componente.

Para eso creé un sistema de Skills: roles especializados que Claude puede activar según la tarea. Cada Skill tiene su propio prompt, sus propios criterios de calidad y sus propias reglas:

  • SKILL 1 — Staff PM: El rol por defecto. Priorización, decisiones de scope, trade-offs de producto.

  • SKILL 2 — Product Designer: Revisión de flujos, consistencia visual, accesibilidad.

  • SKILL 3 — PMM (Product Marketing Manager): Posicionamiento, redacción de emails, redacción de copy, comunicación con usuarios.

  • SKILL 4 — Software Architect: Decisiones de stack, patrones de código, performance, seguridad.

  • SKILL 5 — Critical Auditor: Revisiones de producción. El que te dice “esto se va a romper en producción” antes de que se rompa.

  • SKILL 6 — Vibe Coding: Implementación pura. Escribe código siguiendo las convenciones del proyecto.

  • SKILL 7 — Project Archivist: Documentación, decisiones técnicas, historial del proyecto.

La analogía que mejor lo explica: no contratas a “un tío que hace de todo”. Contratas especialistas. Cada uno sabe de lo suyo, tiene sus criterios, y aporta una perspectiva distinta. El hecho de que todos “vivan” dentro de la misma IA no significa que deban comportarse igual.

Para orquestar todo esto, creé un README_Skills.md — un documento que le explica a Claude cómo activar cada skill, cuándo cambiar entre ellas, y cómo se relacionan entre sí. Es el equivalente a tener un organigrama funcional de tu equipo.

Lo que nadie cuenta del vibe coding

Todo esto — las custom instructions, los documentos fundacionales, las skills, el README — lo hice antes de escribir una sola línea de código. Antes de elegir stack. Antes de crear la base de datos. Antes de diseñar la primera pantalla.

¿Fue rápido? No. ¿Fue necesario? Absolutamente.

Porque cuando finalmente empecé a construir, Claude no era un chatbot genérico al que le pedía cosas. Era un equipo que entendía el proyecto, conocía mis limitaciones, respetaba mis decisiones de producto y sabía cuándo preguntar. La velocidad de desarrollo que vino después — y que contaré en próximos posts — fue consecuencia directa de esta inversión inicial.

Si estás pensando en construir algo con IA, mi consejo es este: no empieces por el código. Empieza por el contexto. Cuanto más clara tengas la estrategia, mejores serán las respuestas. Y esto aplica tanto si estás construyendo un side-project como si estás integrando IA en tu equipo de producto.

Savia está en savia.company. Es pequeña, es un MVP, y seguramente tiene cosas que mejorar. Por eso la lanzo ahora: para que me digáis qué funciona y qué no. Entrad, explorad, y si os animáis, escribidme a mentors.savia.app@gmail.com. Toda opinión cuenta.

Y vosotros… ¿habéis probado a construir algo con IA? ¿Empezasteis por el código o por el contexto?