La promesa de IA es que facilitará toda nuestra vida. Y con gran conveniencia viene el potencial de serias ganancias. Las Naciones Unidas pensamiento La IA podría ser un mercado global de $ 4.8 billones para 2033, casi tan grande como la economía alemana.
Pero olvide 2033: en el aquí y ahora, la IA ya está impulsando la transformación en industrias tan diversas como los servicios financieros, la fabricación, la salud, el marketing, la agricultura y el comercio electrónico. Ya sea que se trate de ‘agentes’ algorítmicos autónomos que administran su cartera de inversiones o sistemas de diagnóstico de IA que detectan enfermedades temprano, la IA está cambiando fundamentalmente la forma en que vivimos y trabajamos.
Pero el cinismo es una bola de nieve alrededor de la IA, hemos visto Terminator 2 suficientes veces para ser extremadamente cauteloso. La pregunta que vale la pena hacer, entonces, ¿cómo garantizamos la confianza a medida que AI se integra más en nuestra vida cotidiana?
Las apuestas son altas: un reciente informe Por Camunda destaca una verdad inconveniente: la mayoría de las organizaciones (84%) atribuyen problemas de cumplimiento regulatorio a la falta de transparencia en las aplicaciones de IA. Si las empresas no pueden ver algoritmos, o peor, si los algoritmos ocultan algo, los usuarios se quedan completamente en la oscuridad. Agregue los factores de sesgo sistémico, sistemas no probados y un mosaico de regulaciones y tendrá una receta para la desconfianza a gran escala.
Transparencia: abrir la caja negra de IA
A pesar de todas sus capacidades impresionantes, los algoritmos de IA a menudo son opacos, dejando a los usuarios ignorantes de cómo se alcanzan las decisiones. ¿Es esa solicitud de préstamo con AI que se está denegada debido a su puntaje de crédito, o debido a un sesgo de empresa no revelado? Sin transparencia, la IA puede perseguir los objetivos de su propietario, o el de su propietario, mientras que el usuario no se da cuenta, aún creyendo que está haciendo su licitación.
Una solución prometedora sería poner los procesos en la cadena de bloques, haciendo que los algoritmos sean verificables y auditables por cualquier persona. Aquí es donde entra Web3 Tech. Ya estamos viendo que las nuevas empresas exploran las posibilidades. Espacio y tiempo (SXT), un atuendo respaldado por Microsoft, ofrece alimentos de datos a prueba de manipulaciones que consisten en una capa de cómputo verificable, por lo que SXT puede garantizar que la información sobre la que se basa la IA es real, precisa y no contaminada por una sola entidad.
La nueva prueba de SQL de Space and Time de SQL garantiza que las consultas se calculen con precisión con los datos no modificados, demostrando los cálculos en los historiales de cadena de bloques y poder hacer mucho más rápido que los ZKVM y coprocesadores de última generación. En esencia, SXT ayuda a establecer la confianza en los insumos de IA sin dependencia de un poder centralizado.
Probar que se pueda confiar en AI
La confianza no es un acuerdo único; Se obtiene con el tiempo, análogo a un restaurante que mantiene los estándares para retener su estrella Michelin. Los sistemas de IA deben evaluarse continuamente para su rendimiento y seguridad, especialmente en dominios de alto riesgo como la atención médica o la conducción autónoma. Una IA de segunda clase que prescribe los medicamentos incorrectos o golpea a un peatón es más que una falla, es una catástrofe.
Esta es la belleza de los modelos de código abierto y la verificación en la cadena mediante el uso de libros de libros inmutables, con protecciones de privacidad incorporadas aseguradas por el uso de criptografía como las pruebas de conocimiento cero (ZKPS). Sin embargo, la confianza no es la única consideración: los usuarios deben saber qué puede y no puede hacer la IA, para establecer sus expectativas de manera realista. Si un usuario cree que la IA es infalible, es más probable que confíen en la producción defectuosa.
Hasta la fecha, la narrativa de educación de IA se ha centrado en sus peligros. A partir de ahora, deberíamos tratar de mejorar el conocimiento de los usuarios sobre las capacidades y limitaciones de la IA, mejor para garantizar que los usuarios estén facultados no explotados.
Cumplimiento y responsabilidad
Al igual que con la criptomoneda, la palabra cumplimiento se produce a menudo cuando se discute la IA. AI no recibe un pase bajo la ley y varias regulaciones. ¿Cómo se debe responsabilizar un algoritmo sin rostro? La respuesta puede estar en el protocolo de cadena de bloques modular Cartesique asegura que la inferencia de IA ocurra en la cadena.
La máquina virtual de Cartesi permite a los desarrolladores ejecutar bibliotecas de IA estándar, como TensorFlow, Pytorch y Llama.cpp, en un entorno de ejecución descentralizado, lo que lo hace adecuado para Desarrollo de IA en cadena. En otras palabras, una mezcla de transparencia de blockchain y IA computacional.
Confiar a través de la descentralización
El reciente de la ONU Informe de tecnología e innovación Muestra que si bien la IA promete prosperidad e innovación, su desarrollo corre el riesgo de «profundizar las divisiones globales». La descentralización podría ser la respuesta, una que ayuda a la IA escala e infunde confianza en lo que está debajo del capó.
(Fuente de la imagen: Unsplash)
Fuente: Web3 Tech ayuda a inculcar la confianza y la confianza en la IA