Más

    Google amplía su asociación con Anthropic para mejorar la seguridad de la IA

    - Advertisement -

    Google ha anunciado la ampliación de su asociación con antrópico trabajar para lograr los más altos estándares de seguridad de la IA.

    La colaboración entre Google y Anthropic se remonta a la fundación de Anthropic en 2021. Las dos empresas han colaborado estrechamente, y Anthropic construyó uno de los clústeres de Google Kubernetes Engine (GKE) más grandes de la industria.

    «Nuestra asociación de larga data con Google se basa en un compromiso compartido de desarrollar la IA de manera responsable e implementarla de una manera que beneficie a la sociedad», dijo Dario Amodei, cofundador y director ejecutivo de Anthropic.

    «Esperamos seguir colaborando mientras trabajamos para que más empresas de todo el mundo puedan disponer de sistemas de IA orientables, fiables e interpretables».

    Anthropic utiliza AlloyDB de Google, una base de datos compatible con PostgreSQL totalmente administrada, para manejar datos transaccionales con alto rendimiento y confiabilidad. Además, el almacén de datos BigQuery de Google se emplea para analizar grandes conjuntos de datos, extrayendo información valiosa para las operaciones de Anthropic.

    Como parte de la asociación ampliada, Anthropic aprovechará los chips Cloud TPU v5e de última generación de Google para la inferencia de IA. Anthropic utilizará los chips para escalar eficientemente su poderoso modelo de lenguaje grande Claude, que rangos solo detrás de GPT-4 en muchos puntos de referencia.

    El anuncio se produce inmediatamente después de que ambas compañías participaran en la Cumbre inaugural de seguridad de IA (AISS) en Bletchley Park, organizada por el gobierno del Reino Unido. La cumbre reunió a funcionarios gubernamentales, líderes tecnológicos y expertos para abordar las preocupaciones en torno a la IA fronteriza.

    Google y Anthropic también participan en esfuerzos de colaboración con Foro del modelo de frontera y MLComunescontribuyendo al desarrollo de medidas sólidas para la seguridad de la IA.

    Para mejorar la seguridad de las organizaciones que implementan los modelos de Anthropic en Google Cloud, Anthropic ahora utiliza los servicios de seguridad de Google Cloud. Esto incluye Chronicle Security Operations, Secure Enterprise Browsing y Security Command Center, que brindan visibilidad, detección de amenazas y control de acceso.

    «Anthropic y Google Cloud comparten los mismos valores cuando se trata de desarrollar IA: debe hacerse de manera audaz y responsable», comentó Thomas Kurian, director ejecutivo de Google Cloud.

    «Esta asociación ampliada con Anthropic, basada en años de trabajo conjunto, llevará la IA a más personas de forma segura y proporciona otro ejemplo de cómo las nuevas empresas de IA más innovadoras y de más rápido crecimiento se están basando en Google Cloud».

    La asociación ampliada entre Google y Anthropic promete ser un paso fundamental para promover los estándares de seguridad de la IA y fomentar el desarrollo responsable.

    (Foto por charlesdeluvio en desempaquetar)

    Ver también: Amazon está construyendo un LLM para competir con OpenAI y Google

    ¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Ámsterdam, California y Londres. El evento integral comparte ubicación con Semana de la Transformación Digital.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: ai, inferencia de ai, antrópico, inteligencia artificial, desarrollo, ética, Google, nube de google, inferencia, modelo de lenguaje grande, llm, seguridad, sociedad, tpu v5e

    Fuente: Google amplía su asociación con Anthropic para mejorar la seguridad de la IA

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    This site uses Akismet to reduce spam. Learn how your comment data is processed.