Según un informe reciente de Reuters, el gobierno indio ha propuesto un nuevo requisito para que las empresas de tecnología busquen la aprobación del gobierno antes de lanzar herramientas de inteligencia artificial (IA) que aún se encuentran en etapa de desarrollo o se consideren «poco confiables». Esta medida se inscribe en los esfuerzos de la India por regular el despliegue de tecnologías de IA y garantizar la precisión y confiabilidad de las herramientas disponibles para sus ciudadanos, especialmente en preparación para las próximas elecciones.
El Ministerio de Tecnología de la Información ha emitido una directiva que especifica que cualquier aplicación basada en IA, especialmente aquellas que involucran IA generativa, debe obtener una autorización explícita del gobierno antes de poder ser introducida en el mercado indio. Además, se requiere que estas herramientas de IA muestren advertencias sobre la posibilidad de generar respuestas incorrectas a las consultas de los usuarios. Esto demuestra el compromiso del gobierno de proporcionar información clara sobre las capacidades de las herramientas de IA y se alinea con las tendencias mundiales de establecer pautas para el uso responsable de la IA.
El reglamento también destaca preocupaciones sobre el impacto de las herramientas de IA en la integridad del proceso electoral, especialmente con las próximas elecciones generales. Existe un enfoque particular en garantizar que las tecnologías de IA no comprometan la equidad electoral, especialmente dada las críticas recientes hacia la herramienta de IA de Google, Gemini. La herramienta generó respuestas percibidas como desfavorables hacia el Primer Ministro de la India, Narendra Modi, lo que generó preocupaciones sobre la influencia de la IA en los resultados políticos.
El Subsecretario de Tecnología de la Información, Rajeev Chandrasekhar, ha subrayado que los problemas de confiabilidad con las herramientas de IA no eximen a las plataformas de responsabilidades legales. Ha destacado la importancia de cumplir con las obligaciones legales relacionadas con la seguridad y la confianza, resaltando la necesidad de transparencia y responsabilidad en el desarrollo de la IA.
Estas regulaciones buscan establecer un entorno controlado para la introducción y uso de tecnologías de IA, equilibrando la innovación con consideraciones sociales y éticas. En general, las nuevas regulaciones de la India con respecto al desarrollo de la IA reflejan el compromiso del gobierno de garantizar la precisión, confiabilidad y uso ético de las tecnologías de IA. Al requerir la aprobación gubernamental para las herramientas de IA y hacer hincapié en la transparencia sobre posibles inexactitudes, la India está tomando medidas para proteger los procesos democráticos y el interés público en la era digital. Estas regulaciones sirven como un modelo para otras naciones que buscan establecer pautas para el desarrollo y despliegue responsable de la IA.
Deja una respuesta