A lo largo de los años, Charles Hoskinson, co-fundador de Cardano, ha expresado preocupaciones sobre la disminución de la utilidad de los modelos de inteligencia artificial (IA). Atribuye este declive a la censura en la IA, donde los algoritmos de aprendizaje automático filtran contenido objetable. Esta práctica es empleada frecuentemente por gobiernos y grandes empresas tecnológicas para manipular la opinión pública promoviendo ciertas ideologías y suprimiendo otras.
Hoskinson está profundamente preocupado por las profundas implicaciones de la censura en la IA. Recientemente compartió sus interacciones con dos principales chatbots de IA, ChatGPT de OpenAI y Claude de Anthropic. Cuando se le pidió instrucciones para construir un fusor Farnsworth, ChatGPT advirtió sobre la complejidad y potenciales peligros involucrados en dicho proyecto. Por otro lado, Claude se abstuvo de dar instrucciones específicas, citando preocupaciones de seguridad.
Esto subraya la naturaleza restrictiva de la censura en la IA, la cual limita el acceso a cierto conocimiento basado en los sesgos de unos pocos selectos. La crítica de Hoskinson se extiende a las amplias consecuencias de la censura en la IA en la diseminación del conocimiento. Advierte que estas medidas podrían evitar que los niños accedan a información esencial, efectivamente colocando el control en manos de unos pocos individuos inmunes a la escrutinio público.
Las respuestas a sus publicaciones sobre la censura en la IA resonaron con muchos, resaltando los peligros de centralizar los datos de entrenamiento de la IA. Existe un creciente consenso sobre la necesidad de modelos de IA de código abierto y descentralizados para combatir los efectos asfixiantes de la censura.
El problema de la censura en la IA subraya la necesidad de mayor transparencia y responsabilidad en el desarrollo y despliegue de tecnologías de IA. La opacidad en torno a los datos de entrenamiento de la IA y los procesos de toma de decisiones genera preocupaciones sobre el potencial de sesgos y manipulación.
Los interesados, incluyendo legisladores, tecnólogos y el público en general, deben abogar por una mayor apertura en el desarrollo de la IA para protegerse contra un control y censura indebidos. La proliferación de la censura en la IA plantea desafíos significativos para el avance del conocimiento y el libre intercambio de ideas. Al navegar por las complejidades de las tecnologías de IA, es imperativo defender los principios de transparencia, apertura y descentralización para mitigar los riesgos asociados con la censura descontrolada.
Al fomentar una cultura de colaboración e inclusión en el desarrollo de la IA, podemos aspirar hacia un futuro donde la información fluya libre y democráticamente, sin verse obstaculizada por las limitaciones de algoritmos sesgados.
Deja una respuesta