1) Pitch técnico para cofundador (mensaje para enviar por mail / Discord / LinkedIn)
Podés copiar–pegar esto y tunear tu tono, pero así ya está listo:
Asunto: Busco cofundador técnico para escalar OZD Viral Engine (IA para mejores momentos en video)
Hola, ¿cómo estás?
Te escribo porque estoy construyendo un proyecto de IA aplicada a video largo y estoy buscando un cofundador técnico que quiera subirse desde el inicio.
El proyecto se llama OZD Viral Engine y ya cuenta con un MVP técnico funcional.
Lo que hace es:
Analiza videos largos o playlists de YouTube.
Los corta en bloques (~20s) y los puntúa con un algoritmo propio.
Selecciona automáticamente los momentos con más potencial de viralidad.
Genera un compilado MP4 de “mejores momentos” listo para Shorts/Reels/TikTok.
Produce además un JSON con un “mapa emocional” del video.
¿Qué tiene de distinto?
No es solo “cortar donde sube el volumen”.
Desarrollé un algoritmo propietario llamado OZD 3-Factor Viral Scoring™, que combina:
Audio_RMS (intensidad de audio)
Mide la energía física del momento (gritos, risas, reacciones fuertes).
Jerga / Text_Excitement
A partir de la transcripción (Whisper), detecta expresiones reales en español (“nooo boludo”, “no me la contés”, “wtf”, etc.), más signos de exclamación y lenguaje emocional.
NLP_Sentimiento (modelo multilingüe)
Un modelo de Transformers analiza el texto del bloque y mide la intensidad emocional (positiva o negativa). La rabia, el hype y la euforia valen tanto como la alegría: no se penalizan los extremos.
El score final es:
Score = 0.35 × Audio_RMS + 0.35 × Jerga + 0.30 × NLP_Sentimiento
Además, cada bloque ahora incluye reason_tags como:
«high_audio», «jerga», «sentimiento_fuerte», etc.
Eso permite entender por qué la IA eligió cada clip.
No solo dice “este clip es bueno”, dice: “es bueno por estas razones”.
Estado actual (V19)
Código en Python, modular, limpio y orientado a producción.
Uso de:
yt-dlp para descarga de playlists.
ffmpeg para estandarizar todo a 720p/30fps H.264 + AAC.
pydub para análisis de audio.
openai-whisper para transcripción en español.
transformers (modelo multilingüe) para sentimiento.
Genera:
mejores_momentos_v19.mp4
resumen_emocional_v19.json con todos los bloques y sus reason_tags.
Es decir: el pipeline core ya existe y funciona.
El próximo paso es:
Montarlo en la nube (idealmente Google Cloud).
Diseñar una API / servicio web.
Construir un frontend simple donde un creador sube un video o URL y recibe sus mejores momentos.
¿Qué estoy buscando en un cofounder?
Perfil técnico (backend / cloud / devops) con ganas de:
Contenerizar el motor.
Orquestar jobs de procesamiento (colas, workers, etc.).
Exponer la lógica vía API.
Ayudar a diseñar la arquitectura escalable (multiusuarios).
Que tenga interés en:
IA aplicada a contenido.
Producto para creadores / media.
Construir algo desde muy temprano, con equity y visión a largo plazo.
Si te interesa, te comparto el repo, el JSON de salida y un video demo del compilado de mejores momentos generado por la IA.
Abrazo,
Oscar
2) Mini extracto “elevator pitch” (para mandar rápido por chat)
Estoy construyendo OZD Viral Engine, un motor de IA que analiza videos largos, detecta automáticamente los mejores momentos y genera un compilado listo para Shorts/Reels/TikTok.
Lo clave es que usa un algoritmo propio llamado OZD 3-Factor Viral Scoring™, que combina:
Intensidad de audio,
Jerga/emoción en español,
y análisis de sentimiento por IA (NLP).
Ya tengo un MVP técnico funcional (V19) que toma una playlist de YouTube, procesa todo, y devuelve:
un video de mejores momentos,
y un JSON con un “mapa emocional” del contenido.
Busco cofounder técnico para llevar esto a la nube (Google Cloud) y convertirlo en un SaaS para creadores.
3) Puntos para justificar Google Cloud Credits (resumen para aplicar)
Cuando te toque llenar un formulario tipo “Describe your project / Why Google Cloud?”, usá este esquema:
Nombre del proyecto:
OZD Viral Engine – IA para detección automática de “mejores momentos” en contenido audiovisual largo.
Descripción corta:
OZD Viral Engine es un motor de IA que analiza videos largos (YouTube, streams, podcasts en video) y genera automáticamente compilados de mejores momentos listos para redes sociales. El sistema usa un algoritmo propietario (OZD 3-Factor Viral Scoring™) que combina señales de audio, texto y sentimiento para identificar los segmentos con mayor potencial de impacto emocional y viralidad.
Por qué requiere Cloud / GPU:
Procesa videos largos y playlists completas (carga de CPU/GPU alta).
Utiliza:
Whisper para transcripción.
Modelos de Transformers para análisis de sentimiento.
ffmpeg para estandarizar y renderizar video.
La idea es ofrecer el servicio a múltiples creadores en paralelo, por lo que se necesitan:
Jobs de procesamiento en cola,
Workers distribuidos,
y almacenamiento en la nube.
Por qué Google Cloud es buena opción:
Encaja perfecto con:
GPUs para inferencia (Whisper + Transformers).
Cloud Storage para videos y resultados.
Cloud Run / GKE para orquestar el motor como microservicio.
El proyecto está basado en stack open source (Python, ffmpeg, Whisper, Transformers), lo que encaja con iniciativas de Google for Startups.
Estado del proyecto (clave para que te tomen en serio):
MVP técnico ya implementado y validado en entorno local (V19).
Algoritmo de scoring definido y probado.
Próxima fase: migrar el pipeline a la nube y exponerlo vía API a creadores de contenido.
Si querés, en el próximo paso te preparo:
Un texto “en crudo” para pegar en un formulario de Google for Startups / Google Cloud credits, ya con formato tipo respuestas cortas.
O empezamos a diseñar cómo sería la API / flujo SaaS (endpoints, inputs/outputs, colas de procesamiento, etc.) para que ya lo pienses como producto.
Y cuando respires un poco…
sí, tu OZD Viral Engine – V19 es oficialmente un MVP listo para jugar en ligas grandes 😏💛