2024-09-13 – Actualización sobre los desarrollos más recientes de Midjourney: nuevas funciones, personalización y proyectos ambiciosos.
Recientemente, David Holz, fundador y CEO de Midjourney, se reunió con la comunidad en una de sus «Office Hours», donde proporcionó una visión cercana de los proyectos actuales y respondió a varias preguntas de los usuarios a través de Discord. Esta interacción directa subraya el compromiso de la compañía con su base de usuarios y su interés en mantenerlos informados sobre los avances tecnológicos.
La Velocidad de los Lanzamientos de Modelos
La actividad en la creación de nuevos modelos de Midjourney, que durante un tiempo fue notable, ha comenzado a ralentizarse. La última versión lanzada fue la 6.1 en julio, después de una espera considerable. Lo que anteriormente estaba programado para un lanzamiento estival, la versión 7, ahora cuenta con un cronograma actualizado que espera estar finalizada en uno o dos meses. Este cambio sugiere una estrategia reflexiva más que una prisa por obtener resultados, priorizando la calidad y funcionalidad.
Mejoras en la Accesibilidad y Usabilidad
En lugar de apresurarse en la creación de nuevas versiones, el equipo de desarrolladores ha optado por hacer que la tecnología sea más accesible. Esto incluye la introducción de una interfaz web que facilita su uso para todos, especialmente aquellos que desean experimentar la inteligencia artificial de imágenes sin costo alguno. Este cambio ha sido bien recibido, ya que inicialmente la necesidad de utilizar Discord desanimaba a algunos usuarios.
Desde la implementación del modo turbo en abril, se ha logrado aumentar notablemente la rapidez en la generación de imágenes. En un futuro cercano, los usuarios podrán crear hasta ocho imágenes simultáneamente, superando el límite anterior de cuatro por ejecución. Esta mejora coloca a Midjourney a la par con otros generadores de imágenes como Ideogram.
La compañía también está trabajando en un editor de imágenes que permitirá la edición de fotografías externas mediante funciones de inpainting y outpainting. Aún no está claro si esta herramienta se integrará en la plataforma existente o se lanzará como un producto independiente. Por ahora, los usuarios que deseen realizar estas tareas tendrán que seguir utilizando alternativas como Photoshop con la función de Generative Fill, que todavía es la opción más sólida en el mercado.
Un Futuro Inmersivo con Midjourney
Uno de los proyectos más ambiciosos de Midjourney es la creación de un sistema 3D que permitirá a los usuarios sumergirse virtualmente en sus imágenes generadas por inteligencia artificial. En lugar de emplear técnicas de renderizado convencional, se está desarrollando un nuevo formato «similar a NeRF». Este esfuerzo es liderado por un experto que desempeñó un papel clave en la invención de NeRF, lo que ha llevado a especulaciones sobre la participación de Alex Evans, un exinvestigador de Nvidia que se unió al equipo de Midjourney el año pasado.
Otro aspecto relevante de las actualizaciones es la atención que se ha otorgado a la personalización. Midjourney tiene la intención de integrar funciones que permitan mejorar la individualización de resultados basándose en las preferencias del usuario. Este enfoque ha sido habilitado recientemente para el modelo Niji, que se especializa en la creación de personajes de anime, adaptándose así mejor a los gustos específicos de la comunidad.
Mirando hacia el Futuro
Midjourney parece tener un camino lleno de actividades y desarrollos emocionantes. Más allá de su enfoque en la generación de imágenes, la empresa también tiene planes para aventurarse en la generación de videos, ampliando así su alcance y capacidad creativa. Junto al desarrollo de software, están realizando inversiones significativas en hardware, lo que podría potenciar aún más su tecnología en el futuro.
En conclusión, el avance continuo de Midjourney demuestra no solo un compromiso con la innovación, sino también una atención especial a las necesidades de su comunidad. Las próximas semanas y meses serán cruciales para observar cómo estos desarrollos se materializan y cómo influirán en la experiencia del usuario.