El tan esperado GPT-5 finalmente ha llegado. Sin embargo, dos nuevos testers del modelo entrevistados por Reuters dijeron que, aunque las capacidades de programación de GPT-5 y su habilidad para resolver problemas científicos y matemáticos son muy fuertes, creen que el salto de GPT-4 a GPT-5 no es tan grande como el de GPT-3 a GPT-4. La razón del estancamiento no es difícil de entender: falta de datos. Hay una forma de decirlo que no es muy rigurosa pero es muy ilustrativa: cuando se entrenó GPT-4, ya se había capturado prácticamente todos los datos que se podían obtener de Internet, dando una sensación similar a haber visto toda la riqueza del mundo. Por eso, el año pasado, el ex científico jefe de OpenAI, Ilya Sutskever, dijo que, aunque la capacidad de cálculo está aumentando, la cantidad de datos no ha crecido al mismo ritmo. De hecho, para ser sinceros, el pico de un AI generalista probablemente sea GPT-5 durante un tiempo, y las diversas empresas de AI se centrarán en AI especializada. Por ejemplo, el experto en AI de OpenLedger, Ram Kumar, mencionó en esta entrevista que muchas empresas (como Trust Wallet) quieren integrar AI en sus billeteras, pero no pueden usar modelos generales directamente, ya que no satisfacen necesidades específicas; deben ser personalizados según el escenario, y OL proporciona los protocolos y herramientas para que todos puedan hacerlo. Otro ejemplo es que Bloomberg comenzó a desarrollar BloombergGPT de inmediato, entrenándolo con la enorme cantidad de datos de terminales, noticias, empresas y textos de Bloomberg (más de 700 mil millones de etiquetas en total). Debido a este corpus cerrado, seguramente superará a los LLMs generales en tareas financieras. Otro ejemplo es el sistema de conducción autónoma (FSD) de Tesla, que se entrena con miles de millones de millas de datos de video/telemetría recopilados por Tesla, algo que sus competidores no tienen. Así que hace unos días, Musk insinuó que si también pudiera obtener datos de conducción locales de China, en la competencia anterior con Dongchedi, Tesla podría haberlo logrado completamente. Por lo tanto, la competencia futura en AI se intensificará en la pista de datos especializados; depender solo de datos comunes de Internet no será suficiente. Así que sistemas como el de atribución de datos (Data Attribution) que desarrolla OpenLedger se convertirán en una nueva infraestructura. Imagina que los datos valiosos son valiosos no solo porque son escasos, sino también porque pueden proporcionar retornos a sus poseedores (si consideras los datos como un activo), así como una casa genera alquiler, los datos también deberían generar "alquiler de datos". Ram dijo en el video que Hugging Face es genial, pero el 90% de los conjuntos de datos allí no son tan útiles para la implementación comercial. Por lo tanto, para tener un AI especializado que pueda ser comercializado, primero debe haber un sistema de atribución de datos que permita a los poseedores de datos valiosos compartir sus datos y obtener recompensas, lo que a su vez alentará a más poseedores de datos valiosos a participar, formando un ciclo positivo. La igualdad que trae AI podría estar oculta aquí; en el pasado, los recursos de los expertos eran valiosos, eran exclusivos de una clase privilegiada, ya que el tiempo de los expertos es limitado. Pero en la era de AI, ¿qué pasa si es AI especializada? Reduce enormemente el costo marginal, haciendo posible que las personas comunes utilicen servicios de nivel experto o casi experto. Esperamos el lanzamiento de la mainnet de OL.
Openledger
Openledger5 ago, 14:11
.@TrustWallet ahora es un cliente de @OpenLedgerHQ, construyendo oficialmente con nuestra tecnología. Orgullosos de apoyar a una de las billeteras más confiables de Web3 mientras abraza la IA verificable. Escucha a @Ramkumartweet y @EowynChen explicarlo en @therollupco.
5,07K