En una carta abierta, expertos, entusiastas y empresarios muy conocidos como Elon Musk han firmado una carta abierta para frenar el desarrollo de la Inteligencia Artificial por, al menos, seis meses. Los motivos son varios y van desde la seguridad y riesgos de sistemas tan potentes, hasta el shock económico y social que esta tecnología podría producir. GPT-4 ya está aquí: sus capacidades y efectos en el trabajo se empiezan a vislumbrar y pueden llegar a ser preocupantes.
Comments
El amigo DotCSV es ya referencia en asuntos #AIX en castellano y sus videos suelen ser muy interesantes. Esta charla lo es. No somos conscientes (bueno, algunos parece que sí) de lo que estos desenfrenados avances de las tecnologías GPT pueden traer al mundo laboral y otros muchos sectores.
Puede parecer contradictorio el querer poner freno a algo que hace apenas unos meses ni existía pero en este video tomarás conciencia de las desastrosas consecuencias que una #AIX sin control nos puede traer. Estamos viviendo una nueva revolución en primera persona y no nos hemos dado cuenta. Me siento afortunado de estar aquí para disfrutarla o sufrirla, eso ya dependerá de como seamos capaces de gestionarla.
La inteligencia Artificial no es tan confiable como creemos, de hecho, Italia ordena la prohibición de ChatGPT por problemas con la privacidad. Se trata de una medida tomada por parte del Garante para la protección de datos personales, con la que ordenó, con carácter temporal, el procesamiento de datos de los usuarios italianos por parte de OpenAI.
Además de esta medida, la institución abrió una investigación para determinar la forma en la que el software de Inteligencia Artificial gestiona los datos de sus usuarios. Hay que recordar que apenas el 20 de marzo, ChatGPT tuvo una fuga de información sobre la facturación de los usuarios y la filtración del historial de búsquedas realizadas en su servicio.
Un error en ChatGPT ha causado la filtración de millones de peticiones privadas de los usuarios que han utilizado esta herramienta de inteligencia artificial, y debido a ello el servicio ha estado cerrado durante bastantes horas recientemente, aunque está operativo parte de la plataforma.
Todo comenzó por un error que todavía se está investigando y que tuvo como consecuencia que un usuario pudiese leer el historial de peticiones que han realizado otras personas, siendo visibles en la sección izquierda de la propia página web donde se accede a la herramienta.
Lo que hay es que acotarla, respecto a los Derechos Humanos, pero no bloquearla o prohibirla. Porque el potencial que tiene para, mismo, la medicina, es impresionante.
El tema de privacidad, es más un problema de programación, y no tener la adecuada seguridad que otra cosa. Yo sinceramente, no me imagino una Skynet, tipo película, peligrosa. No directamente claro, si si la manejan ciertos gobiernos a su antojo, en el uso militar, como los drones, que tienen mucha utilidad, pero alguna no muy buena...
Saludos.
At least keep AI in its own SANDBOX. Even when collaborating with others on an international project, keep the AI on its own "channel" by only allowing it to be project specific. Do not allow AI systems to manage or have full control over life critical systems or major services that pertain to infrastructure such as roads, communications, defense/offense systems, water, fuel, power, rails, air traffic, ship traffic, etc.
La IA puede ser como una navaja suiza multipropósito, que sirva para todo. Con el tiempo, se podrán Hacer películas y series con IA, sin necesidad de actores, cámaras, guionistas, iluminadores, técnicos de sonido, etc. Es lo que se me ocurrió con mi poca inteligencia y mucha imaginación. Ignoro si será posible pero seguro que va a perjudicar a muchas personas (y beneficiará a algunos, probablemente pocos).
¿Qué significa esto de pausar durante seis meses la IA? Se lleva investigando en IA muchos años y muchos miles de millones de dólares. ¿De verdad alguien se cree que van a parar todo esto, con los millones de dólares de pérdidas que todo esto significa? Es imposible parar la IA. Es un motivo económico muy importante. Son capaces de decir que pausan durante 6 meses, pero seguir investigando a escondidas y sacar todos los adelantos después, y decir que no se investigó nada en 6 meses.
Buenas...
voy un poco tarde con este interesante tema.
Os paso el enlace a una newsletter (lo siento pero solo está en inglés) de Andrew Ng, uno de los mayores expertos en AI, donde se moja sobre este tema.
Mi opinión sobre este tema (no soy experto simplemente usuario) es el mismo que el símil del cuchillo. Un cuchillo no es ni bueno, ni malo 'per se'...depende del uso que tu hagas.