Category

Cyberseguridad y Privacidad

Category

Moxie Marlinspike, el arquitecto detrás de Signal, acaba de extender los principios del cifrado de extremo a extremo al mundo de la inteligencia artificial conversacional. El resultado se llama Confer, y su integración con Meta AI podría redefinir cómo pensamos la privacidad en la era de los asistentes de IA.

El problema técnico que resuelve Confer es complejo. En la mensajería tradicional, cifrar extremo a extremo es relativamente directo: el servidor actúa como mensajero ciego. Pero en IA conversacional, el servidor necesita procesar el contenido para generar una respuesta. ¿Cómo garantizás privacidad cuando el modelo necesita leer lo que escribís?

La respuesta de Marlinspike involucra arquitecturas de computación confidencial y entornos de ejecución confiables, conocidos como TEEs (Trusted Execution Environments). Son entornos aislados donde el procesamiento ocurre sin que ni siquiera el proveedor del servicio pueda acceder a los datos en claro. La infraestructura ejecuta, pero no ve.

La ventana de oportunidad de Meta

Que Confer se integre con Meta AI no es un detalle menor. Significa exponer esta tecnología a más de 3.000 millones de usuarios. La historia muestra que los estándares de privacidad se adoptan masivamente cuando las plataformas dominantes los incorporan: así ocurrió con HTTPS, con el cifrado en WhatsApp, y posiblemente estamos viendo el mismo patrón repetirse con la IA cifrada.

No es casualidad que sea Marlinspike quien ejecuta este movimiento. Él ya hizo esto antes con Signal Protocol, que terminó siendo el motor de cifrado dentro del propio WhatsApp. Ahora amplía esa colaboración al problema más complejo de la IA conversacional.

Desde el ángulo estratégico, Meta necesita diferenciarse en un mercado donde OpenAI, Google y Anthropic compiten con propuestas cada vez más similares. La privacidad verificable técnicamente, no solo prometida en términos de servicio, se convierte en un eje de diferenciación difícil de replicar. No alcanza con anunciarlo, requiere rediseñar infraestructura de fondo, y eso toma tiempo y expertise.

Para mercados enterprise y europeos, donde regulaciones como el GDPR convierten la privacidad en un requisito bloqueante, esta arquitectura no es un nice-to-have. Es el precio de entrada.

Si Meta valida este modelo a escala, el efecto sobre el mercado va a ser importante. La demanda de arquitecturas similares se acelerará en verticales donde la privacidad no es opcional: salud, servicios legales, finanzas, recursos humanos, educación. Son sectores donde hoy la adopción de IA conversacional está frenada precisamente por la imposibilidad de garantizar que los datos no sean accesibles al proveedor.

La computación confidencial resuelve ese bloqueo técnico y cuando un caso de uso de alta visibilidad como este lo pone en el radar, los ciclos de adopción se comprimen. Quienes construyan productos de IA con privacidad verificable en estos sectores antes de que el estándar se masifique estarán capturando posiciones difíciles de desplazar. No porque el producto sea mejor en features, sino porque la confianza técnica demostrable se convierte en el activo diferencial.

IA responsable

Hay una implicancia más amplia que vale marcar: esto eleva el piso de lo que se considera IA responsable. Durante años, la privacidad en IA se gestionó con políticas, términos de servicio y promesas corporativas. Confer propone reemplazar la confianza en las intenciones del proveedor por garantías técnicas verificables.

Esa es una ruptura de paradigma real. No porque las políticas sean inútiles, sino porque el mercado, los reguladores y los usuarios sofisticados empezarán a exigir pruebas técnicas, no solo declaraciones.

Conclusión

Confer no es solo un proyecto técnico interesante. Es la confluencia de tres fuerzas que raramente se alinean: el arquitecto más creíble en privacidad del mundo, la plataforma con mayor escala de usuarios del planeta, y una capa de infraestructura madura lista para producción. Cuando esas tres variables se encuentran, los cambios de estándar no se anuncian, simplemente ocurren. Estamos viendo el momento en que la privacidad verificable en IA pasa de ser una aspiración a convertirse en una expectativa. Los que entiendan las implicancias técnicas y de negocio ahora tendrán ventaja cuando el resto recién empiece a hacer las preguntas.

Fuente: https://www.wired.com/story/signals-creator-is-helping-encrypt-meta-ai/

Durante años migramos desde aplicaciones centradas en archivos, con formatos rígidos, duplicación y cierres exclusivos, hacia DBMS capaces de ofrecer ACID, transacciones, índices, integridad referencial, control de concurrencia, auditoría, backup/restore, replicación y disaster recovery. Ese salto ordenó el dato, mejoró la búsqueda y permitió operar con consistencia y previsibilidad en escenarios críticos.

Con big data y cloud, el péndulo no volvió atrás, pero sí completó un círculo. El almacenamiento en archivos/objetos recuperó protagonismo por costo, escala y apertura: HDFS y, sobre todo, object storage como S3, GCS o ADLS; formatos columnares como Parquet y ORC; y formatos de tabla abiertos (Iceberg, Delta Lake, Hudi) que aportan time travel, transacciones, compaction y gobernanza. La separación storage/compute habilita motores elásticos y serverless (Spark, Flink, Trino, DuckDB, Athena) con schema-on-read, multi-tenant y data sharing sin copias, apoyando pipelines analíticos y de ML con latencias y costos controlados.

Hoy conviven mundos. Para OLTP de baja latencia, invariantes fuertes y write-heavy, un DBMS transaccional sigue siendo la herramienta correcta. Para analítica, entrenamiento de modelos, historización de streams y archivado, los objetos y formatos columnares dominan. Entre ambos, patrones como CDC hacia logs append-only, lakehouse, external tables, materialized views y consultas federadas integran flujos sin fricción. La capa de metadatos y gobierno es clave: catálogos, lineage, cifrado con KMS, RBAC/ABAC, WORM con Object Lock, versionado, snapshots y replicación cruzada elevan seguridad y resiliencia end-to-end.

No se trata de elegir bando, sino de hacer explícitos los principios: transaccionalidad donde aporta valor, formatos abiertos donde escalan los costos y la interoperabilidad. Diseñar metadatos como primera clase, definir SLA/SLO por dataset, automatizar pipelines idempotentes con validaciones de esquemas y contract testing, y tratar el costo como requisito (compresión, particionamiento, z-order, lifecycle policies) son prácticas que separan éxito de deuda técnica. En performance, predicate pushdown, column pruning y caching; en resiliencia, chaos drills y playbooks de recuperación cierran el loop operativo.

¿Qué criterios concretos usás hoy para decidir si un dataset vive en una tabla transaccional o en un bucket de objetos, y cómo te fue con esa elección?

Fuente: https://dzone.com/articles/file-systems-and-database-full-circle

Convertir solicitudes en lenguaje natural en SQL listo para correr ya no es ciencia ficción. Un enfoque de ETL/ELT basado en prompts permite que un LLM entienda la intención, recupere metadatos del warehouse y de catálogos, y genere consultas optimizadas que se validan, prueban y orquestan en un pipeline automatizado. El objetivo: acelerar métricas ad‑hoc, aliviar el backlog y mantener resiliencia ante cambios de esquema, sin comprometer seguridad ni performance.

La arquitectura típica combina plantillas de prompts con RAG sobre fuentes como esquemas, constraints, estadísticas de columnas, lineage y definiciones de modelos semánticos. A partir de eso, el sistema propone SQL y lo somete a guardrails: validación sintáctica y semántica, linters, chequear claves primarias/foráneas y cardinalidades esperadas, simulación con muestras o sandbox, y verificación con EXPLAIN/EXPLAIN ANALYZE para detectar joins explosivos, scans innecesarios o operaciones que rompan SLAs. Antes de llegar a producción, se instrumenta con métricas de latencia, costo y aciertos; se versiona el prompt y el SQL generado; y se habilita rollback.

Del prompt a producción, un orquestador aplica pasos claros: detección de intención (métrica, transformación, migración), generación de SQL, validación, pruebas determinísticas con datasets de control, canary en una replica o schema temporal, evaluación del plan de ejecución y límites de recursos (budgets de tiempo/costo, row limits), promoción controlada y publicación. Para transformaciones complejas, se particiona el trabajo en etapas idempotentes con tablas intermedias, se manejan SCD, se agregan retries con backoff y se evita lock contention. La observabilidad cierra el ciclo con logs, trazas y alertas en tiempo real.

El gobierno de datos es clave: human‑in‑the‑loop para aprobar cambios sensibles; políticas de acceso y RLS para filtrar fila/columna; masking de PII en entornos de prueba; secretos gestionados fuera del prompt; y revisión de prompts para prevenir data exfiltration. En entornos multi‑tenant, se parametrizan catálogos y policies por tenant, se aplican cuotas y rate limits, y se separan dominios con esquemas o proyectos aislados. Todo cambio queda auditado (prompt, contexto recuperado, SQL final, métricas de ejecución) para cumplir con compliance.

Los casos de uso van desde generación de métricas y definiciones de modelos semánticos hasta aceleración de BI, migraciones entre warehouses y transformaciones ELT repetitivas. Integrar con catálogos (p. ej., DataHub/OpenMetadata) y orquestadores (Airflow/Dagster) o frameworks (dbt) permite heredar lineage, tests y despliegue continuo. Los riesgos existen: alucinaciones, joins incorrectos, regressions de performance, derivaciones de costos y fuga de PII; se mitigan con prompts robustos, RAG preciso, suites de pruebas, thresholds de calidad de datos, sandboxes, caching, y estrategias de fallback a plantillas o stored procedures cuando el modelo tiene baja confianza.

La métrica de éxito no es solo “¿compila?”, sino “¿es correcta, rápida, segura y barata de operar de forma sostenida?”. Con esa vara, ETL basado en prompts puede transformar la productividad del equipo y abrir autoservicio analítico sin perder control. La pregunta es: ¿qué guardrails y señales de calidad priorizarías para habilitar a más usuarios sin ceder en confiabilidad ni costo?

Fuente: https://dzone.com/articles/prompt-based-etl-sql-automation-llms

Cada tantas décadas, la escuela vuelve a debatirse entre el entusiasmo y la histeria. Ocurrió con las calculadoras, con la radio educativa, con la televisión, el overhead projector, las primeras microcomputadoras, los programas 1:1, las tablets, los MOOCs, las clases por Zoom y ahora con ChatGPT. El ensayo fotográfico de Wired compila un siglo de titulares que prometen revoluciones inmediatas o anuncian el fin del aprendizaje, y la evidencia nos devuelve siempre una respuesta más sobria: el impacto existe, pero es contingente; depende del problema, del contexto y de la implementación. Ni fórmula mágica ni apocalipsis, sino una herramienta más en un sistema complejo.

La experiencia muestra que el verdadero diferencial no está en el brillo de la tecnología sino en el diseño operativo. ¿Qué objetivo pedagógico concreto resuelve? ¿Cómo se integra con el currículum, la capacitación docente y la evaluación? ¿Qué pasa con la conectividad real del aula, el soporte, la reposición y el MDM de los dispositivos? ¿Cómo conviven el LMS, el SSO y la gestión de identidades sin abrir brechas de seguridad? En sistemas críticos, la resiliencia importa tanto como la novedad: degradación controlada, auditoría, privacidad por diseño y un TCO que sea sostenible. Interoperabilidad antes que lock-in, estándares como LTI/xAPI/OneRoster, y datos accesibles en pipelines gobernados para analytics con propósito.

También hay método para medir sin caer en promesas infladas. Empezar con pilotos acotados, establecer baselines y métricas de resultado (aprendizaje, retención, tiempo-on-task) y de proceso (uso, fricción, soporte), evitar el novelty effect con horizontes suficientes, y cuando no se pueda un RCT, usar diseños cuasi-experimentales. La evidencia no vive sola: necesita instrumentación, trazabilidad y un marco ético que proteja a estudiantes y docentes (consentimiento, minimización de datos, control de accesos, WCAG/UDL para accesibilidad). Si la tecnología no reduce carga cognitiva y administrativa, suele sumar ruido.

Con IA generativa, el péndulo fue veloz: bans iniciales y, poco después, co-pilots para feedback, redacción de consignas, revisión de código o apoyos personalizados. El valor aparece cuando se limita la superficie de riesgo: RAG con corpus locales para contexto, filtros de seguridad, políticas claras de uso, logs auditables, rate limits, revisión humana y evaluación continua de alucinaciones, sesgos y prompt injection. No es reemplazo del criterio docente; es una prótesis cognitiva cuya eficacia depende del encastre con la práctica y de su gobernanza.

El largo plazo se decide en la arquitectura: soluciones multi-tenant bien aisladas, RBAC granular, APIs abiertas, contenido portable, contratos que eviten dependencias opacas y presupuestos que contemplen mantenimiento, formación y renovación. Innovar no es desplegar más pantallas, es crear condiciones para que lo pedagógico florezca sin romper lo operativo ni lo ético. Con ese enfoque, el ciclo de entusiasmo e histeria se vuelve aprendizaje institucional. ¿Qué tecnología escolar te pareció revolución o amenaza y en qué terminó cuando tocó el aula real?

Fuente: https://www.wired.com/story/photo-essay-school-tech-hysteria/

La convergencia entre IA generativa, LLMs y orquestación multiagente está dando forma a sistemas de IA compuestos: ecosistemas de agentes especializados que colaboran para producir resultados de negocio a escala. El salto no es solo tecnológico, sino de diseño organizacional: pasamos de “un modelo por caso” a flujos agénticos que combinan planificación, ejecución y reflexión, integrados con datos operativos en tiempo real. En escenarios como atención al cliente, operaciones de TI, marketing y automatización de campo, esta composición acelera la hiperautomatización, habilita personalización granular y sostiene ciclos de optimización continua sobre métricas de negocio, no solo métricas de laboratorio.

El plano arquitectónico se apoya en cuatro pilares. Primero, agentes modulares con contratos claros (capacidades, entradas/salidas estructuradas, herramientas permitidas) y patrones de coordinación como planner–executor, blackboard o negociación entre pares. Segundo, orquestación segura: control de identidad y permisos de herramientas, enrutamiento de modelos, límites de costo/latencia, manejo de errores y estrategias de fallback, además de human-in-the-loop cuando la confianza no alcanza umbrales definidos. Tercero, integración de datos en tiempo real mediante streaming/event-driven (p. ej., CDC sobre Kafka), APIs transaccionales y recuperación aumentada (RAG) con vectores para dar contexto fresco y relevante; caches semánticos y memoria episódica/persistente para minimizar costo y maximizar coherencia. Cuarto, gobernanza empresarial como política viva: versionado y linaje de prompts y flujos, policy-as-code, resguardo de PII (enmascaramiento/redacción), auditoría, cumplimiento y aislamiento multiinquilino.

Para llevarlo a producción con garantías, la observabilidad es nativa: telemetría por agente y por flujo (latencia E2E, calidad, tasa de contención, MTTR, costo por interacción), trazas de tool-calls y evaluación continua con datasets sintéticos y reales alineados a KPIs de negocio. Esto se complementa con pruebas de contrato (JSON Schema/JSON Mode), guardrails de seguridad de contenido, canaries y A/B por versión de flujo, y pruebas de caos orientadas a resiliencia (timeouts, degradaciones controladas, retrocesos determinísticos). La combinación de model routing (pequeño→grande según complejidad), presupuestos por contexto, y caching inteligente habilita eficiencia sin sacrificar precisión.

En la capa de herramientas, emergen patrones y componentes prácticos: grafos de agentes y máquinas de estados para la orquestación; vectores en pgvector o Milvus para RAG con control de frescura; catálogos de herramientas con permisos mínimos; y frameworks como LangGraph, AutoGen, CrewAI o LlamaIndex para acelerar ensamblado y trazabilidad. El bus de eventos sostiene la reactividad entre dominios y permite que los flujos se disparen por datos, no solo por llamadas síncronas. El resultado es una arquitectura preparada para escalar, auditable, y con control fino del costo–rendimiento—justo lo que se necesita para pasar del piloto a la operación confiable.

Como pieza final, el valor está en que cada agente tenga un propósito de negocio medible y un contrato verificable, y que la orquestación trate a los LLMs como componentes fallables pero observables. ¿Cuál es el eslabón más subestimado cuando intentás escalar flujos agénticos: la gobernanza, la integración de datos en tiempo real o la evaluación continua?

Fuente: https://feeds.dzone.com/link/18931/17121473/compound-ai-systems-scalable-enterprise-workflows

En un entorno cada vez más distribuido y dinámico, diseñar microservicios seguros en Java implica mucho más que aplicar buenas prácticas de programación. Con el auge del cómputo en la nube y la proliferación de entornos multicontenidos, la necesidad de incorporar arquitecturas robustas y modernas como la confianza cero (Zero Trust) se vuelve fundamental. A diferencia de los enfoques tradicionales de seguridad basados en perímetros, Zero Trust asume que ninguna entidad, ya sea interna o externa, es confiable por defecto, y cada acceso debe ser verificado y validado minuciosamente.

Java sigue siendo uno de los lenguajes más utilizados para construir aplicaciones empresariales complejas, y frameworks como Spring Boot y Jakarta EE facilitan el desarrollo de microservicios escalables y seguros. Pero la combinación ganadora viene cuando se integran con arquitecturas nativas en la nube, que permiten aprovechar servicios como mallas de servicio (como Istio), autenticación federada, control granular de políticas y cifrado de datos en tránsito. Estos elementos no sólo refuerzan la seguridad, sino que también mejoran la capacidad de adaptación de los sistemas ante nuevas amenazas y cambios operativos.

Adoptar una arquitectura de confianza cero en diseño nativo para la nube no es simplemente una elección técnica, sino un cambio de paradigma que impacta directamente en la resiliencia y sostenibilidad de las aplicaciones modernas. ¿Cómo están aplicando este enfoque en sus proyectos actuales? ¿Y qué desafíos encuentran al integrar Zero Trust con microservicios en producción?

Fuente: https://feeds.dzone.com/link/18931/17103215/microservices-cloud-native-design-zero-trust-architecture

En un giro significativo en la relación entre tecnología e internet, Cloudflare ha anunciado una nueva política que busca proteger el valor del contenido original en la era de la inteligencia artificial. A partir de ahora, los rastreadores de IA que deseen acceder al contenido servido a través de la red de Cloudflare serán bloqueados por defecto, a menos que medie una compensación adecuada a los creadores de ese contenido. Esta movida no solo representa un hito técnico, sino que también plantea una discusión ética y económica urgente sobre el equilibrio entre la innovación y los derechos de quienes producen la información que alimenta los modelos de IA.

La medida ha sido recibida con interés por parte de desarrolladores, editores y comunidades tecnológicas, especialmente en un momento donde grandes modelos de lenguaje y otras herramientas de IA generan resultados a partir de ingentes volúmenes de material obtenido de la web —frecuentemente sin permiso ni retribución. Cloudflare señala que mientras apoya el crecimiento responsable de la IA, también es esencial asegurar que los creadores originales tengan control sobre cómo se utiliza su contenido digital. La política se alinea con la visión de una internet más justa y transparente, donde la innovación no sacrifique los derechos de los individuos y organizaciones que nutren la red con conocimiento.

El concepto de un “Día de la Independencia del Contenido” reimagina el futuro de la web como un ecosistema de colaboración donde los beneficios de la IA deben estar acompañados por reglas más claras y mecanismos de equidad. ¿Qué otras medidas deberían implementarse para equilibrar el desarrollo de IA y la protección de los productores de contenido? ¿Es este el principio de una nueva economía del conocimiento digital basada en retribución justa? El debate está más abierto que nunca.

Fuente: https://blog.cloudflare.com/content-independence-day-no-ai-crawl-without-compensation/

El ecosistema Java es conocido por su robustez y documentación exhaustiva, pero cada tanto surge una peculiaridad que desafía incluso al más experimentado. Un desarrollador descubrió una curiosa característica en Java 16: el ‘comentario de fin de archivo’, una conducta no documentada que permite al compilador ignorar todo el contenido restante del archivo tras un comentario malicioso construido con secuencias Unicode.

Tradicionalmente Java reconoce tres tipos de comentarios: línea única (//), multilínea (/* */) y documentación (/** */). Sin embargo, este descubrimiento pone de relieve que bajo ciertas condiciones —como el empleo de secuencias Unicode que representan caracteres invisibles— un comentario puede extenderse de manera inesperada hasta alcanzar el final del archivo de código. Esto no solo afecta el análisis estático y la comprensión del código fuente, sino que además introduce un vector potencial para técnicas de ofuscación o ataques de seguridad encubiertos.

Más allá de la rareza técnica, lo importante es reflexionar sobre la necesidad de herramientas más rigurosas para validar el comportamiento de los compiladores modernos, así como establecer prácticas de revisión de código capaces de detectar estas anomalías. ¿Qué impacto creen que puede tener este tipo de comportamientos no documentados en entornos productivos complejos o regulados, como los sistemas financieros?

Fuente: https://dzone.com/articles/java-end-of-file-comment