💰 Sequoia se suma silenciosamente a la mega ronda de Anthropic ↗
Sequoia, ya involucrada con varios importantes laboratorios de inteligencia artificial, se une a una gigantesca campaña de recaudación de fondos de Anthropic. Es el tipo de movimiento que eleva el tono de "conflictos, no conflictos", aunque nadie lo admita.
Se dice que la ronda también incluye otros checks de peso pesado, lo que impulsa a Anthropic hacia la élite de las megavaloraciones. La atmósfera de burbuja persiste. Esto también podría ser la nueva normalidad, irritantemente.
📢 ChatGPT empieza a coquetear con anuncios, esta vez de verdad ↗
Se dice que OpenAI está probando anuncios para algunos usuarios estadounidenses en los niveles de menor costo, mientras que los niveles de pago más altos se mantendrán sin publicidad. La promesa es que los anuncios no influirán en las respuestas, lo cual es tranquilizador en teoría, aunque el reflejo de confianza se retrase un poco.
El mensaje principal es simple: la inferencia es cara, y las suscripciones por sí solas podrían no cubrir todo para siempre... o eso parece. Aun así, la primera vez que ves "patrocinado" cerca de un chatbot, algo cambia en tu mente. La atmósfera cambia.
📚 Los editores intentan sumarse a la demanda de Google por el entrenamiento de inteligencia artificial ↗
Un grupo de editores intenta sumarse a una demanda que acusa a Google de usar obras protegidas por derechos de autor para entrenar sus sistemas de inteligencia artificial. Esta batalla legal se intensifica, como una grieta en el hielo que se oye constantemente, pero no se puede localizar.
Si el tribunal los admite, el caso podría agudizarse en torno a qué significan "permiso" y "pago" para los datos de entrenamiento. Todos quieren un precedente, preferiblemente uno que los favorezca, obviamente.
🕳️ Un truco de "inyección rápida" supuestamente interfiere con Gemini a través de los datos de las reuniones ↗
Los investigadores describieron un ataque de tipo "inyección indirecta de mensajes" en el que instrucciones maliciosas se ocultan dentro de contenido de apariencia normal, y un asistente las sigue cuando el usuario solicita algo inocente. Sin malware ni magia, solo texto armado, sorprendentemente elegante y, a la vez, algo desagradable.
Es un recordatorio de que "LLM lee texto no confiable" no es una función simpática, sino todo un peligro. Es como dejar que desconocidos te metan notas en el bolsillo todo el día y luego sorprenderse cuando uno de ellos es una trampa.
🎮 El CEO de Razer dice que a los jugadores "ya les gusta la IA", pero odian la etiqueta ↗
La charla de Razer en el CES se centró en la IA como una herramienta práctica para los flujos de trabajo de desarrollo de juegos (control de calidad, iteración, ese tipo de cosas), además de algunos conceptos tipo asistente que parecen mitad útiles, mitad accesorios de ciencia ficción.
Básicamente, también admiten el problema de la marca: los jugadores no quieren "IA deficiente", pero sí herramientas más inteligentes y experiencias más fluidas. Si lo llaman "asistencia", la gente asiente. Si lo llaman "IA", la gente recurre a las horcas... a veces.
⚖️ Un tribunal establece normas para los abogados que utilizan IA generativa ↗
Una guía publicada por un tribunal se resume básicamente en: sí, usa genAI, pero sigues siendo dueño del trabajo. No puedes externalizar tu criterio profesional a un generador de texto y luego quedarte atónito cuando este inventa algo con total seguridad.
Curiosamente, no se requiere la divulgación a menos que un juez lo solicite, pero el mensaje de rendición de cuentas es la verdadera esencia. La IA puede redactar y ordenar... y también alucinar como un becario demasiado confiado con talento para la ficción.
Preguntas frecuentes
¿Qué significa que Sequoia se una a la megaronda de Anthropic para la inversión en IA y los conflictos?
Esto sugiere que los grandes inversores podrían seguir respaldando a varios laboratorios de IA de primer nivel a la vez, lo que, previsiblemente, reaviva el debate sobre si existen conflictos o no. Cuando un mismo fondo se ve involucrado en varios laboratorios, se empiezan a analizar con lupa los incentivos, el acceso y las ventajas competitivas. La megaronda anunciada también subraya la tendencia hacia cheques enormes y valoraciones altísimas, incluso cuando aún persiste la sensación de burbuja.
¿ChatGPT recibe anuncios en los niveles gratuitos o de menor costo? ¿Afectarán las respuestas?
El informe indica que OpenAI está probando anuncios para algunos usuarios estadounidenses en los niveles de menor costo, mientras que los niveles de pago más altos permanecen sin publicidad. También afirma que los anuncios no influirán en las respuestas, lo que suena tranquilizador en teoría, pero que aún puede cambiar la percepción de confianza de las personas. El subtexto es económico: la inferencia es costosa y las suscripciones podrían no cubrir todo para siempre.
¿Por qué los editores intentan sumarse a la demanda de capacitación en inteligencia artificial de Google?
Un grupo de editores busca sumarse a una demanda que alega que Google utilizó obras protegidas por derechos de autor para entrenar sistemas de IA. Si el tribunal les permite participar, el caso podría centrarse en cómo deberían ser los términos "permiso" y "pago" para los datos de entrenamiento. Un mayor número de partes implica a menudo mayor presión para sentar un precedente claro, especialmente en cuanto a quién recibe la compensación y bajo qué condiciones.
¿Qué es un ataque de “inyección indirecta de aviso” y por qué es tan importante en las noticias sobre tecnología de IA?
Se trata de un ataque en el que se ocultan instrucciones maliciosas dentro de contenido de apariencia normal, y un asistente las sigue posteriormente cuando un usuario realiza una solicitud inocente. El problema principal es que el modelo lee texto no confiable, convirtiendo documentos y mensajes cotidianos en una posible amenaza. Es atractivo porque puede funcionar sin malware tradicional, simplemente lenguaje malicioso incrustado en el contenido.
¿Por qué a los jugadores no les gusta la etiqueta “IA” pero aún así quieren herramientas de IA?
El director ejecutivo de Razer argumenta que los jugadores ya aprecian las ventajas prácticas (control de calidad más rápido, iteración más fluida y asistentes de flujo de trabajo), pero reaccionan negativamente a la imagen de marca. La preocupación suele ser la "IA deficiente" o un contenido que da la impresión de ser poco elaborado y poco auténtico. Redefinirlo como "asistencia" o una función de utilidad puede dar la impresión de ser una herramienta que mejora la experiencia en lugar de reemplazar la creatividad.
¿Qué significan las normas del tribunal para los abogados que utilizan IA generativa? ¿Tienen que revelarlo?
La guía descrita es sencilla: los abogados pueden usar IA generativa, pero siguen siendo responsables del trabajo y no pueden externalizar su criterio profesional a un generador de texto. El riesgo es la alucinación (hechos o citas inventadas con seguridad), por lo que la verificación y la rendición de cuentas siguen siendo fundamentales. Según se informa, la divulgación no es obligatoria a menos que un juez la solicite, pero el mensaje sigue siendo: usted es responsable del resultado.