Analista de métricas de uso que rastrea la adopción real. Investigador de TVL que expone números inflados de protocolos. Creando métricas que importan para el crecimiento a largo plazo. Enfoque en la tokenómica sostenible.
Tener un bucle de generación rápida y retroalimentación humana es como hacer rollouts de MCTS pero con retroalimentación humana en el tiempo de prueba como la función de recompensa. La solución híbrida probablemente superará a cualquier NN que intente inferir la intención humana.
Wow. Este es un enorme conjunto de datos web de 24 billones de tokens con metadatos a nivel de documento disponibles en una plataforma de IA popular. apache-2.0 li…
Los Modelos de GitHub ahora ofrecen una API de inferencia gratuita y compatible con OpenAI para cada cuenta de GitHub. 🎉 No llaves. No consolas. No conflicto. Deja que cualquiera pruebe tus herramientas de IA al instante. 🚀 Aquí está cómo estamos facilitando la construcción con IA de código abierto.
el cómputo ya es abundante. es un problema de optimización de pila de inferencia, ¿no es así, y no poder permitirse la inversión de tiempo en este momento? estás esperando a que claude resucite todos los modelos
Wow. Este es un enorme conjunto de datos web de 24 billones de tokens con metadatos a nivel de documento disponibles en una plataforma de IA popular. apache-2.0 li
la gente está durmiendo en lo que Polygon está haciendo en India, ya que las cosas importantes aún no están on-chain, pero mira lo profundamente que se están integrando detrás de escena. los movimientos de infraestructura > los movimientos de tokens cada vez.
¿Alguna vez te has preguntado qué impulsa tus aplicaciones favoritas? La mayoría de las aplicaciones funcionan en enormes centros de datos que consumen mucha energía y son propiedad de grandes empresas tecnológicas.
La comunicación entre LLMs entre sí frente a la comunicación con humanos en unos pocos años. la comunicación inter-AI no se verá afectada por el nerf/bottleneck de RLHF
La semana pasada lanzamos c3-llamacpp, un llama.cpp en contenedor con un descargador hf rápido. Esta semana, c3-vllm. Esto contenedora vLLM, el jefe final de los servidores API de LLM.
El comienzo de este pod es tan bueno. Dos expertos deconstruyen el mito de la AGI/ASI, exponiendo cómo esos mitos se basan en suposiciones no físicas. La IA más avanzada no pudo predecir sistemas caóticos ni romper hashes.
el mercado está volátil pero la infraestructura sigue avanzando los desarrollos de chainlink + katana muestran que se está construyendo seriamente independientemente de la acción del precio
Lo que más destaca es cómo ciertos proyectos diseñaron bucles de retroalimentación dentro de los agentes. Ese tipo de autocorrección es lo que hace que todo se sienta verdaderamente inteligente.