Inteligencia artificial
La Inteligencia Artificial de Conversión puede ser la clave para evitar un estancamiento tecnológico

La demanda de contenido está experimentando un crecimiento constante y pronunciado. Para tener una idea realista sobre la tasa de crecimiento, Adobe realizó una encuesta que abarcó a más de2,600 profesionales de experiencia del cliente y marketingen las principales economías globales.
Los resultados de la encuesta, publicados por Adobe en marzo de 2023, indicaron un crecimiento en la demanda de contenido de al menos dos veces durante los últimos dos años. Alrededor de dos tercios fueron aún más optimistas sobre el futuro del contenido. Dijeron que esperaban que la demanda creciera entre cinco y veinte veces en las próximas veinte horas.
Atender a esta demanda ha obligado a las empresas a optar por nuevos modelos de producción de contenido. Según laFederación Mundial de Anunciantes, más de la mitad de las empresas internacionales importantes han desarrollado capacidades de producción de contenido en casa. Pero ¿es suficiente? Bueno, la inteligencia artificial de conversión ha asumido el desafío.
¿Qué es la Inteligencia Artificial de Conversión?
La Inteligencia Artificial de Conversión se trata de utilizar la inteligencia artificial para ayudar a las empresas a comunicarse mejor con sus clientes y realizar más ventas. Lo hace ayudando a crear, mejorar y gestionar contenido como escritos, imágenes y sonidos. Esto hace que sea más fácil para las empresas captar la atención de su audiencia, crear contenido que realmente les hable y mejorar su experiencia, todo a través de tecnología de inteligencia artificial inteligente.
Hoy en día, las empresas pueden utilizar Inteligencia Artificial de Conversión para cumplir una serie de objetivos de marketing de contenido, incluyendo copias de anuncios de Facebook y Google, contenido de sitios web, publicaciones en redes sociales y más. Pero ¿cómo hace posible la Inteligencia Artificial de Conversión todo esto? ¿Cuál es la tecnología que la impulsa? Para eso, necesitamos saber sobre los Modelos de Lenguaje Grande o LLM.
¿Qué es un Modelo de Lenguaje Grande?
Es un tipo de inteligencia artificial que puede aprender de grandes cantidades de texto y datos. Hay casos de uso en los que estos modelos de inteligencia artificial podrían tratar con cientos de miles de millones de puntos de datos para obtener información, estrategias y proyecciones significativas.
El Origen de los LLM en Resumen
Los LLM modernos irrumpieron en la escena hace seis años, en 2017. Estos LLM utilizaron modelos de transformador que podían tratar con una gran cantidad de parámetros para entender y generar respuestas precisas rápidamente.
Cuatro años después, en 2021, elInstituto de Inteligencia Artificial para la Humanidad de Stanfordacuñó el término y concepto de modelos base. El nombre se originó del hecho de que estos modelos, grandes e impactantes, entregaban como base para optimizaciones y casos de uso adicionales. Con el desarrollo de LLM, la generación de contenido, especialmente en forma escrita, experimentó cambios significativos.
El Impacto de los LLM
La investigación de ARK Invest muestra que durante los últimos dos años, la calidad de escritura de los LLM ha experimentado una mejora significativa. Ha llevado a una mayor confianza y despliegue de soluciones impulsadas por LLM para generar contenido.
Como resultado, el costo de autorizar contenido escrito ha disminuido drásticamente. Fue relativamente constante en términos reales durante el siglo pasado, cerca de US$100 por 1000 palabras escritas. En los últimos dos años, sin embargo, esa tasa ha disminuido a US$0.10 y aún menos.
El rendimiento y la productividad están programados para mejorar aún más a medida que el rendimiento de la capacitación de la inteligencia artificial avanza rápidamente. Los investigadores de la inteligencia artificial están innovando en la capacitación y la inferencia, el hardware y los diseños de los modelos, mejorando el rendimiento mientras reducen los costos. Se espera que esto produzca más de cinco veces las ganancias de rendimiento en 2024, utilizando 2023 como año base.
Ha habido varias innovaciones algorítmicas que han resultado en una mejor capacidad de escritura y una mayor productividad y rendimiento de los LLM. El aprendizaje por refuerzo a partir de la retroalimentación humana, por ejemplo, ha ayudado mucho. Los prompts se han optimizado para superar los prompts humanos en más del 50%.
Las capacidades de decodificación especulativa han acelerado la inferencia dos o tres veces en modelos específicos. Los investigadores también han sido proactivos al priorizar los costos de inferencia. Y sus esfuerzos están mostrando resultados en el terreno, con los costos de inferencia disminuyendo a una tasa anual de casi el 86%, más rápida que los costos de capacitación. Los modelos GPT han visto una aceleración de capacitación casi tres veces con Flash Attention 2.
Con todas estas mejoras y mejoras sucediendo a un ritmo acelerado, las investigaciones también están en marcha para determinar si es posible un estancamiento potencial en el uso de los LLM y si tal instancia podría evitarse.
Haga clic aquí para aprender por qué 2023 fue el año de despegue para la inteligencia artificial.
Estancamiento Potencial de los LLM y su Evitación
Los investigadores están explorando un escenario posible en el que los LLM se quedarán sin datos, lo que resultará en un rendimiento limitado. Los LLM necesitan ser alimentados con grandes volúmenes de datos de capacitación consistentemente para seguir aprendiendo y mejorando. Sin embargo, la potencia de cálculo y la posible falta de datos de capacitación parecen ser una preocupación.
Según las estimaciones de Epoch AI, las fuentes de lenguaje/datos de alta calidad, incluyendo libros y artículos científicos, podrían agotarse en 2024. Y es cuando uno tendría que aprovechar un conjunto más grande de datos de visión no explorados. Estos datos de visión no explorados que pueden ayudar a los LLM a evitar el estancamiento incluyen palabras habladas y otros tipos de datos del mundo físico.
La investigación muestra que anualmente se hablan treinta billones de palabras. Los generadores de habla a texto y herramientas similares capturan más de 80 billones de palabras habladas diariamente. Además, hay taxis, camiones, drones y otros vehículos robóticos que generan grandes volúmenes de datos del mundo físico y datos sintéticos que aumentan los datos primarios. Todos estos datos no explorados podrían actuar como una riqueza inigualable de recursos y hacer que los LLM sean mejores.
Sin embargo, las mejoras en el rendimiento, la productividad y la calidad no se trata solo de localizar minas de datos no exploradas. Varias empresas innovadoras están haciendo esfuerzos globales para mejorar la situación de manera holística.
#1. Replit AI
Cuando se trata de aumentar la productividad, Replit AI ha sido una de las historias de éxito más importantes. Como asistente de codificación, ha aumentado la productividad y la satisfacción laboral de los desarrolladores de software. Ayuda a eliminar las partes iterativas de la codificación para que uno se pueda centrar en las partes creativas del trabajo.
Replit AI simplifica la codificación integrando un generador de código de inteligencia artificial que elimina la necesidad de cambiar de pestaña, ofreciendo sugerencias de código de autocompletar para un progreso más rápido. Mejora la comprensión del proyecto con su funcionalidad de Contexto de código para escribir líneas relevantes siguientes y detecta proactivamente problemas, sugiriendo soluciones directamente dentro de una interfaz de editor sin problemas.
En general, Replit AI es un conjunto eficiente de características de generación de código de inteligencia artificial, que incluye Código Completo, Generar Código, Editar Código y Explicar Código.
Lo que impulsa a Replit AI son los LLM. Devuelve resultados generados a partir de modelos de lenguaje grande entrenados con código y datos públicos y ajustados por Replit. Considera el prompt conversacional y el lenguaje de programación que uno está utilizando para hacer sugerencias y explicaciones sobre los códigos generados.
Las características de Replit AI están disponibles de forma gratuita para todos los usuarios. Todo lo que se necesita es una cuenta de Replit. Replit AI funciona mejor con código JavaScript y Python, pero admite 16 lenguajes, incluyendo Bash, C, C#, C++, CSS, Go, Java, JavaScript, HTML, PHP, Perl, Python, R, Ruby, Rust y SQL.
Según la información más reciente disponible, la empresa recaudó US$97.4 millones a una valoración de US$1.16 mil millones para expandir sus servicios en la nube y liderar el desarrollo de la inteligencia artificial en abril de 2023.
#2. Github Copilot
Otro servicio de asistencia de codificación, similar a Replit AI, que ha ayudado a mejorar la productividad de los desarrolladores en tareas de codificación en un 2.2 veces en 2023 es Github Copilot. Github Copilot ofrece asistencia contextualizada en todo el ciclo de vida del desarrollo de software.
Según los números de la encuesta de satisfacción del consumidor, los desarrolladores de Github Copilot informan hasta un 75% más de satisfacción con sus trabajos que aquellos que no lo hacen y son hasta un 55% más productivos al escribir código sin comprometer la calidad.
Github Copilot se entrena en texto de lenguaje natural y código fuente de fuentes públicas, incluyendo código en repositorios públicos de GitHub. Se entrena en todos los lenguajes que aparecen en los repositorios públicos. Sin embargo, los lenguajes con menos representación en los repositorios públicos pueden resultar menos efectivos. Github Copilot puede ser utilizado por desarrolladores individuales, freelancers, estudiantes, educadores y mantenedores de código abierto.
Según declaraciones públicas del vicepresidente de productos de Microsoft, Mario Rodriguez, Github Copilot está prosperando y generando ingresos a una tasa anual de $100 millones.
#3. MosaicML
MosaicML ayuda a entrenar a los LLM, posicionado como una solución que lleva la inteligencia artificial generativa a todos, ofreciendo todo lo necesario para entrenar y desplegar modelos en datos de los usuarios. Su serie de modelos base MPT facilita la integración fácil de los LLM en aplicaciones que se ejecutan en modelos de código abierto y licencia comercial.
El entrenamiento de MosaicML permite a los desarrolladores preentrenar o ajustar modelos con control total de los datos, simplificando el proceso a un solo comando dirigido a un bucket de S3. La plataforma maneja eficientemente la orquestación, los fallos de nodos y la infraestructura, ejemplificado por el uso de Mosaic ML por parte de Replit para entrenar su LLM Ghostwriter, mostrando resultados líderes dentro de una semana.
El enfoque de MosaicML para el entrenamiento en cualquier entorno de nube enfatiza la privacidad de los datos, la seguridad y la propiedad total del modelo, con características que admiten transiciones sin problemas entre nubes. Ofrece propiedad total de los datos, filtrado de contenido según las necesidades comerciales y integración de plug-and-play con tuberías de datos existentes, siendo agnóstico de la nube y probado en empresas.
En junio del año anterior, la adquisición de Mosaic ML por parte de Databricks en un acuerdo valorado en $1.3 mil millones resaltó su impacto significativo en el mercado y su valor de propuesta.
#4. Anthropic
El producto insignia de Anthropic, Claude, se ejecuta en dos modelos: Claude y Claude Instant.
Claude es el modelo más poderoso de Antropic que sobresale en una variedad de tareas, desde diálogos sofisticados y generación de contenido creativo hasta instrucciones detalladas. Funciona bien en escenarios que requieren razonamiento complejo, creatividad, diálogos pensativos, codificación y creación de contenido detallado.
Claude Instant, la versión más rápida y económica de Claude, ayuda con diálogos casuales, análisis de texto, resumen y comprensión de documentos. Funciona bien donde el rendimiento a bajo costo es un requisito. Lo hace con latencia reducida.
En general, Claude es adecuado para procesar volúmenes de texto, tener conversaciones naturales, obtener respuestas y automatizar flujos de trabajo. Desde el servicio de atención al cliente hasta el legal, la capacitación, la búsqueda y los trabajos de oficina, Claude es adecuado para una variedad de escenarios de caso de uso.
Según informes publicados a finales de diciembre de 2023, Anthropic, visto como el rival de OpenAI, estaba en conversaciones para recaudar $750 millones en una ronda de financiación a una valoración de $18.4 mil millones.
#5. Humata
Con Humata, uno puede saltar a través de largos artículos técnicos con facilidad. El AI de PDF de Humata ayuda a resumir los hallazgos, comparar documentos y buscar respuestas. Es compatible con archivos ilimitados subidos sin límites de tamaño de archivo. Las respuestas de AI de documento vienen con citas para que uno pueda rastrear de dónde provino la idea.
Dado que es como ChatGPT para PDF, puede reescribir el resumen hasta la satisfacción. Sin embargo, a diferencia de ChatGPT, Humata puede trabajar con archivos, leer cada archivo que se suba y generar respuestas basadas en el contenido de los documentos.
El 2 de octubre de 2023, Humata AI anunció la conclusión exitosa de su última ronda de financiación, donde recaudó $3.5 millones de Google’s Gradient Ventures, Cathie Wood’s ARK Invest, M13 y otros ángeles prominentes para su ronda de semillas.
#6. OpenAI
Finalmente, ninguna discusión sobre la inteligencia artificial, su aprendizaje de LLM y características de creación de contenido puede estar completa sin mencionar a OpenAI, la empresa que ha estado construyendo modelos generativos utilizando una tecnología llamada aprendizaje profundo que aprovecha un gran volumen de datos para entrenar sistemas de inteligencia artificial.
Open AI tiene servicios de Chat, Imagen y Audio. Su GPT-3, un modelo de lenguaje autoregresivo, ha sido entrenado con 175 mil millones de parámetros. Sin embargo, ha entrenado modelos de lenguaje que son aún mejores que GPT-3 para seguir las intenciones del usuario.
Entre los productos relacionados con imágenes, la investigación de OpenAI sobre modelado generativo para imágenes ha llevado a modelos de representación como CLIP, que crea un mapa entre texto e imágenes para que una inteligencia artificial pueda leer, y DALL-E, una herramienta para crear imágenes vívidas a partir de descripciones de texto.
Finalmente, ha realizado desarrollos en el campo del audio con Whisper, Jukebox y Musenet. Whisper ofrece instalaciones de reconocimiento de habla en inglés robustas, mientras que Jukebox ayuda a generar música en una variedad de géneros y estilos de artistas. MuseNet es una red neural profunda que puede generar composiciones musicales completas con una variedad de instrumentos.
Según informes publicados a finales de diciembre de 2023, OpenAI estaba en conversaciones iniciales para recaudar una nueva ronda de financiación a una valoración de $100 mil millones o más.
Más allá del Estancamiento: El Camino por Delante
La inteligencia artificial ha ayudado a la generación de contenido a viajar millones de millas en un corto período de tiempo. El futuro será más brillante y próspero, donde los sistemas y software computacionales que crecen con los datos resolverán problemas intratables.
Los sectores económicos de todo tipo podrán aprovechar mejor la tecnología al automatizar todo tipo de trabajo de conocimiento que sea repetitivo y consumidor de tiempo. Mientras que modelos como GPT-4 impulsarán la productividad, los modelos de inteligencia artificial de código abierto conducirán a costos operativos drásticamente reducidos y una eficiencia radicalmente mejorada. Los investigadores estiman no solo la evitación de un estancamiento tecnológico, sino también el cuadruplicado de la productividad de los trabajadores del conocimiento para 2030.
Esto subraya la importancia de los Modelos de Lenguaje Grande en el ecosistema tecnológico, habiendo desempeñado un papel crucial en todo esto. Ayudó a productos como ChatGPT a consolidar la comprensión pública de la inteligencia artificial, mientras que les permitió ofrecer una interfaz de chat simple que cualquier persona que hable cualquier idioma puede utilizar en su beneficio.
Haga clic aquí para aprender todo sobre la inversión en inteligencia artificial (IA).












