Notebookcheck Logo

California, a un paso de atar en corto a la IA

IA entre rejas (Fuente de la imagen: generada con DALL-E 3)
IA entre rejas (Fuente de la imagen: generada con DALL-E 3)
Defendida por Elon Musk y temida por los ejecutivos de empresas tecnológicas emblemáticas como Google, OpenAI y Meta, la antagónica ley de seguridad de la IA de California, SB 1047, está ahora a un paso de remodelar el panorama tecnológico. Tras pasar la legislatura estatal, el proyecto de ley espera ahora la decisión de Gavin Newsom.

Las empresas tecnológicas de IA con operaciones en California podrían tener que reubicarse o replantearse pronto su enfoque de la investigación en este campo si el gobernador Gavin Newsom decide aprobar el proyecto de ley de seguridad de la IA, SB 1047. Según la misma, las pruebas de modelos avanzados de IA deberán realizarse después de que los desarrolladores implementen un interruptor de seguridad. Mientras que algunos sostienen que se trata de una medida de seguridad bienvenida, los críticos la consideran una limitación severa que frenaría la innovación y, en última instancia, expulsaría a muchas empresas del estado.

Elon Musk, consejero delegado tanto de Tesla como de la empresa de IA xAIestá a favor del proyecto de ley. Por otro lado, grandes nombres de la tecnología como Google, Meta y OpenAI están preocupados por que las limitaciones que conlleva este proyecto de ley no merezcan la pena por la seguridad añadida contra una posible aunque bastante improbable, al menos por ahora, amenaza de IA. Si el proyecto de ley se aprueba, el fiscal general del estado podría demandar a los desarrolladores que no cumplan las normas. Las auditorías por parte de terceros y la protección de los denunciantes también se mencionan en la legislación, que necesita la luz verde final del gobernador de California, Gavin Newsom.

La decisión que descansa sobre los hombros de Newsom no es fácil, pero tiene hasta el 30 de septiembre para decidir. Por el lado bueno, incluso si el SB 1047 sale adelante, hay que destacar que las pruebas de seguridad son obligatorias para los modelos de IA con un coste de desarrollo superior a 100 millones de dólares o los que requieran una cierta potencia de cálculo, por lo que la mayoría de las empresas de IA no necesitarían molestarse en implantar el interruptor de seguridad.

Los interesados en la IA pueden hacerse con el libro de BK La inteligencia artificial y la mente humana: Una Nueva Ciencia Radical de la Mente Humana en Amazon por 9,99 dólares en formato Kindle, 32,21 dólares en tapa dura o 17,95 dólares (en rústica).

Fuente(s)

Please share our article, every link counts!
Codrut Nistor, 2024-08-30 (Update: 2024-08-30)