En la vertiginosa carrera por construir sistemas generativos de IA, el mantra de la industria tecnológica ha sido “cuanto más, mejor”, independientemente del precio.
Ahora las empresas tecnológicas están empezando a adoptar tecnologías de IA más pequeñas que no son tan potentes pero cuestan mucho menos. Y para muchos clientes, esto podría ser un buen compromiso.
El martes, Microsoft presentó tres modelos de IA más pequeños que forman parte de una familia de tecnologías que la compañía ha llamado Phi-3. La compañía dijo que incluso el más pequeño de los tres funcionó casi tan bien como GPT-3.5, el sistema mucho más grande que sustentaba el chatbot ChatGPT de OpenAI cuando sorprendió al mundo con su lanzamiento a finales de 2022.
El modelo Phi-3 más pequeño cabe en un teléfono inteligente, por lo que se puede utilizar incluso si no está conectado a Internet. Y puede funcionar con el tipo de chips que alimentan las computadoras normales, en lugar de los procesadores más caros fabricados por Nvidia.
Debido a que los modelos más pequeños requieren menos procesamiento, los grandes proveedores de tecnología pueden cobrar menos a los clientes por usarlos. Esperan que esto signifique que más clientes puedan aplicar la IA en lugares donde el uso de modelos más grandes y avanzados es demasiado caro. Si bien Microsoft dijo que usar los nuevos modelos sería “sustancialmente más barato” que usar modelos más grandes como el GPT-4, no ofreció detalles específicos.
Los sistemas más pequeños son menos potentes, lo que significa que pueden ser menos precisos o parecer más incómodos. Pero Microsoft y otras empresas de tecnología apuestan a que los clientes estarán dispuestos a renunciar a algo de rendimiento si eso significa que finalmente pueden permitirse la inteligencia artificial.
Los clientes imaginan muchas formas de utilizar la IA, pero con sistemas más grandes “dicen: ‘Oh, pero ya sabes, pueden resultar bastante caros'”, dijo Eric Boyd, un ejecutivo de Microsoft. Los modelos más pequeños, casi por definición, son más baratos de implementar, afirmó.
Boyd dijo que algunos clientes, como médicos o asesores fiscales, podrían justificar los costos de sistemas de inteligencia artificial más grandes y precisos porque su tiempo era muy valioso. Pero es posible que muchas tareas no requieran el mismo nivel de precisión. Los anunciantes en línea, por ejemplo, creen que pueden orientar mejor los anuncios con inteligencia artificial, pero necesitan costos más bajos para poder utilizar los sistemas con regularidad.
“Quiero que mi médico haga las cosas bien”, dijo Boyd. “En otras situaciones en las que resumo las opiniones de los usuarios en línea, si está un poco fuera de lugar, no es el fin del mundo”.
Los chatbots funcionan mediante grandes modelos de lenguaje, o LLM, sistemas matemáticos que pasan semanas analizando libros digitales, artículos de Wikipedia, artículos de noticias, registros de chat y otros textos recopilados de Internet. Al detectar patrones en todo ese texto, aprenden a generar texto ellos mismos.
Pero los LLM almacenan tanta información que recuperar lo que se necesita para cada chat requiere una potencia informática significativa. Y esto es caro.
Si bien los gigantes tecnológicos y las nuevas empresas como OpenAI y Anthropic se han centrado en mejorar sistemas de inteligencia artificial más grandes, también compiten para desarrollar modelos más pequeños que ofrezcan precios más bajos. Meta y Google, por ejemplo, lanzaron modelos más pequeños el año pasado.
Meta y Google también han hecho que estas plantillas sean de “código abierto”, lo que significa que cualquiera puede usarlas y modificarlas de forma gratuita. Esta es una forma común para que las empresas obtengan ayuda externa para mejorar su software y alentar a la industria en general a utilizar sus tecnologías. Microsoft también está haciendo que sus nuevos modelos Phi-3 sean de código abierto.
(El New York Times demandó a OpenAI y Microsoft en diciembre por infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).
Después de que OpenAI lanzó ChatGPT, Sam Altman, director ejecutivo de la compañía, dijo que el costo de cada chat era “centavos de un solo dígito” – un gasto enorme considerando lo que ofrecen servicios web populares como Wikipedia por pequeñas fracciones de centavo.
Ahora, los investigadores dicen que sus modelos más pequeños pueden al menos acercarse al rendimiento de los principales chatbots como ChatGPT y Google Gemini. En esencia, los sistemas aún pueden analizar grandes cantidades de datos pero almacenar los patrones identificados en un paquete más pequeño que puede funcionar con menos potencia de procesamiento.
Construir estos modelos es un compromiso entre potencia y tamaño. Sébastien Bubeck, investigador y vicepresidente de Microsoft, dijo que la compañía construyó sus nuevos modelos más pequeños refinando los datos que se les introducían, trabajando para garantizar que los modelos aprendieran de texto de mayor calidad.
Parte de este texto fue generado por la propia inteligencia artificial, los llamados “datos sintéticos”. Luego, los curadores humanos trabajaron para separar el texto más nítido del resto.
Microsoft fabricó tres modelos pequeños diferentes: Phi-3-mini, Phi-3-small y Phi-3-medium. Phi-3-mini, que estará disponible el martes, es el más pequeño (y más barato) pero el menos potente. Phi-3 Medium, que aún no está disponible, es el más potente pero también el más grande y caro.
Hacer que los sistemas sean lo suficientemente pequeños como para conectarlos directamente a un teléfono o computadora personal “los hará mucho más rápidos y menos costosos”, dijo Gil Luria, analista del banco de inversión DA Davidson.