La Inteligencia Artificial (IA) supondrá el siguiente paso en el camino evolutivo de nuestro sistema productivo, científico y social. Consecuentemente, implicará cambios sustanciales en el mercado de trabajo y en la sociedad. Lógicamente, la inexperiencia en la materia, la novedad del sector y el inmenso abanico de posibilidades que se abrirán con la implementación efectiva de la IA comporta riesgos, y estos a su vez conllevan el necesario debate sobre si debe de regularse y cómo esta nueva tecnología.
A este respecto, Sundar Pichai, director ejecutivo de Google, firma un artículo en el Financial Times en el que no se pregunta si se debe o no regular la Inteligencia Artificial, sino en qué medida debe hacerse. Pichai subraya que, si bien hoy día hay preocupaciones reales sobre las potenciales consecuencias negativas de la IA, los actores internacionales de primer nivel como la Unión Europea y Estados Unidos ya han comenzado a elaborar propuestas de reglamentación para dar respuesta a los posibles inconvenientes.
El directivo de Google remarca que la reglamentación gubernamental como pilar fundamental de la nueva tecnología debe basarse en verdaderos marcos normativos que tengan en cuenta la seguridad, la aplicabilidad, la equidad y la responsabilidad para garantizar que se desarrollen las herramientas adecuadas de la manera correcta afirmaba el CEO de una de las compañías punteras en el sector.
“La IA tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser no hacerlo. Asegurando que se desarrolle de forma responsable y que beneficie a todos, podemos inspirar a las generaciones futuras a creer en el poder de la tecnología tanto como yo lo hago”, afirma Sundarajan, confiado en que la aplicación de la regulación será inteligente o no será.