Por qué la regulación inteligente de la IA es vital para la innovación y el liderazgo estadounidenses

Por qué la regulación inteligente de la IA es vital para la innovación y el liderazgo estadounidenses

Cuando era adolescente, me sumergí en la ciencia ficción. Si bien las visiones de muchas películas y novelas no se han materializado, todavía me sorprende la capacidad del legendario escritor Isaac Asimov para imaginar un futuro de inteligencia artificial y robótica. Ahora, en medio de todo el alboroto en torno a la IA generativa y otras herramientas de IA, es hora de que sigamos el ejemplo de Asimov y escribamos un nuevo conjunto de reglas.

Por supuesto, las reglas de la IA para el siglo XXI no serán tan simples como las tres reglas de la robótica de Asimov (popularizadas en «Yo, robot»). Pero en medio de la ansiedad por el auge de las herramientas de inteligencia artificial y un impulso equivocado para un moratoria en la investigación avanzada de IA, la industria puede y debe impulsar reglas de desarrollo de IA responsables. Ciertamente, los avances tecnológicos del último siglo nos han brindado mucha experiencia para evaluar tanto los beneficios del progreso tecnológico como los peligros potenciales.

La tecnología en sí es neutral. Es cómo lo usamos, y las salvaguardas que implementamos a su alrededor, lo que determina su impacto. Como humanos, aprovechar el poder del fuego nos ha permitido mantenernos calientes y prolongar el tiempo de almacenamiento de los alimentos. Pero el fuego todavía puede ser destructivo.

LEER  La mejor oportunidad de éxito de Bluesky es aceptar el shitposting

Piensa en cómo el recientes incendios forestales en Canadá amenazó vidas y propiedades en Canadá y dañó la calidad del aire en los Estados Unidos. La energía nuclear en forma de bombas atómicas mató a miles de personas en Japón durante la Segunda Guerra Mundial, pero la energía nuclear ilumina gran parte de Francia y alimenta a los portaaviones estadounidenses.

Estamos en un momento crucial para el futuro de la tecnología sorprendente, compleja y consecuente. No podemos darnos el lujo de dejar que otros países tomen la iniciativa.

En el caso de la IA, las nuevas herramientas y plataformas pueden resolver grandes problemas globales y crear conocimiento valioso. En una reunión reciente de CIO del área de Detroit, los asistentes compartieron cómo la IA generativa ya está acelerando el tiempo de comercialización y haciendo que sus negocios sean más competitivos.

La IA generativa nos ayudará a «escuchar» a diferentes especies animales. La IA mejorará nuestra salud al apoyar el descubrimiento de fármacos y el diagnóstico de enfermedades. Herramientas similares brindan desde atención personalizada para personas mayores hasta una mejor seguridad para nuestros hogares. Además, la IA mejorará nuestra productividad, con una nuevo estudio por McKinsey que muestra que la IA generativa podría impulsar la economía mundial en 4,4 billones de dólares al año.

Con todas estas posibilidades, ¿una tecnología tan asombrosa también puede ser mala? Algunas de las preocupaciones sobre las plataformas de IA son legítimas. Deberíamos preocuparnos por el riesgo de falsificaciones profundas, manipulación política y fraude dirigido a poblaciones vulnerables, pero también podemos usar la IA para reconocer, interceptar y bloquear intrusiones cibernéticas dañinas. Los obstáculos y las soluciones pueden ser difíciles y complejos, y debemos trabajar en ellos.

LEER  Zamp quiere liberar a los vendedores en línea del impuesto a las ventas

Algunos también pueden ser simples; ya estamos viendo escuelas que experimentan con exámenes orales para probar el conocimiento de un estudiante. Abordar estos problemas de frente, en lugar de enterrar nuestras cabezas en la arena con una pausa en la investigación que sería inaplicable y propicia para la explotación por parte de malos actores, posicionará a Estados Unidos como líder en el escenario mundial.

Si bien el enfoque de EE. UU. hacia la IA ha sido mixto, otros países parecen estar atrapados en una lucha hiperregulatoria. La UE está preparada para aprobar una ley de IA de gran alcance que exigiría que las empresas soliciten permiso para innovar. En la práctica, esto significaría que solo el gobierno o las grandes corporaciones con las finanzas y la capacidad para permitirse el laberinto de la certificación que cubre la privacidad, la propiedad intelectual y una serie de requisitos de protección social podrían desarrollar nuevas herramientas de seguridad.

A estudio reciente de la Universidad de Stanford también descubrió que el proyecto de ley de IA de la UE prohibiría todos los principales modelos de lenguaje que existen actualmente, incluidos GPT-4 de OpenAI y Bard de Google. Los legisladores canadienses están proponiendo un proyecto de ley de IA demasiado amplio que también podría sofocar la innovación. Lo que es más preocupante, China está persiguiendo rápidamente el dominio civil y militar de la IA con un apoyo gubernamental masivo. Además, tiene una visión diferente de los derechos humanos y la privacidad que puede ayudar a sus esfuerzos de IA, pero es contraria a nuestros valores. Estados Unidos debe actuar para proteger a los ciudadanos y avanzar en la innovación de la IA o nos quedaremos atrás.

LEER  La escuela cambia la contraseña de cada estudiante a "¡Cámbiame!"

Como se veria eso? Para empezar, Estados Unidos necesita un proyecto de ley de privacidad federal preventivo. colcha de hoy reglas estado por estado significa que los datos se tratan de manera diferente cada vez que «cruzan» un límite invisible, lo que genera confusión y barreras de cumplimiento para las pequeñas empresas. Necesitamos una ley nacional de privacidad con pautas y estándares claros sobre cómo las empresas recopilan, usan y comparten datos. También ayudaría a crear transparencia para los consumidores y garantizaría que las empresas puedan fomentar la confianza a medida que crece la economía digital.

También necesitamos un conjunto de principios sobre el uso responsable de la IA. Si bien prefiero menos regulación, la gestión de tecnologías emergentes como la IA requiere reglas claras que definan cómo se puede desarrollar e implementar esa tecnología. Con las nuevas innovaciones de IA que se revelan casi a diario, los legisladores deben centrarse en las medidas de seguridad y los resultados, en lugar de tratar de controlar tecnologías específicas.

Las reglas también deben considerar el nivel de riesgo, centrándose en los sistemas de inteligencia artificial que podrían dañar significativamente los derechos básicos de los estadounidenses o el acceso a los servicios esenciales. A medida que nuestro gobierno determina qué aspecto tiene una «buena política», la industria tendrá un papel vital que desempeñar. La Consumer Technology Association está trabajando en estrecha colaboración con la industria y los responsables políticos para desarrollar principios unificados para el uso de la IA.

Estamos en un momento crucial para el futuro de la tecnología sorprendente, compleja y consecuente. No podemos darnos el lujo de dejar que otros países tomen la iniciativa.

Más contenidos sobre empresas en América Latina

Deja una respuesta