Inteligencia artificial

Albert Cañigueral: "No es una utopía que Cataluña se pueda posicionar en el ámbito de la IA"

Explorador digital vinculado al Barcelona Supercomputing Center

Albert Cañigueral explorador digital vinculado al Barcelona Supercomputing Center
3 min

BarcelonaAlbert Cañigueral (Mataró, 1977) es explorador digital vinculado al Barcelona Supercomputing Center y se ha especializado en el impacto social y económico de las innovaciones digitales. y el acceso a la cultura.

Actualmente quien controla la IA son grandes empresas, y hay países, como Estados Unidos y China, que nos traen mucha ventaja.

— Se ha avanzado mucho sin reflexionar demasiado. Se ha impuesto el avanzar y correr, y tanta aceleración es innecesaria. Desde el Barcelona Supercomputing Center, con el gobierno catalán y el estatal, estamos trabajando en una IA pública. De la misma forma que para la sociedad industrial nos dotamos de carreteras, electricidad, abastecimiento de agua... queremos hacer lo mismo con la IA. La IA pública debe garantizar la trazabilidad y la transparencia de datos, porque ahora mismo las empresas no se responsabilizan de lo que están haciendo. Cogen datos e incumplen sus propios términos y condiciones. Meta pirateó 7 millones de libros, y en sus documentos internos dice no tener valor económico. Es bastante inaceptable.

¿La IA nunca es neutral?

— La IA no es una herramienta neutra y debe cuidarse mucho. Entran y salen muchos datos. Puede haber un sesgo y, según estén configuradas, pueden llegar a amplificar ciertos datos. Muchas veces se ponen mecanismos de control en función de los valores, el lenguaje, los resultados que se quieran tener. En inglés se llaman guardarraíles. Se podría traducir como barreras de seguridad.

¿Cómo será la IA pública en Catalunya?

— Lo llamamos Aina y es una infraestructura pública de inteligencia artificial. No es una utopía que Cataluña pueda posicionarse en el ámbito de la IA, pero es un proyecto a largo plazo. No es una tecnología que podamos desplegar de forma rápida y debemos tener tiempo de orientarla. Es una falacia que la innovación tecnológica equivalga al progreso social. Para que sea así debe haber decisiones políticas y regulaciones. Y se debe decidir de forma colectiva.

¿Hasta qué punto la cultura puede ayudar a crear esta IA?

— La IA se alimenta de datos. Por tanto, si queremos que tenga diferentes contextos culturales y referencias, se deben aportar estos datos y también se debe tener en cuenta la lengua catalana. Nos encontramos ante una nueva capacidad de la tecnología y debemos hacernos muchas preguntas. La cultura puede y debe contribuir a realizar nuevas preguntas, a crear una IA más rica y diversa, porque si no corremos el riesgo de ser colonizados. Además, la cultura puede ayudar a pensar usos distintos para la IA.

¿Y qué puede pedir la cultura en la IA?

— Es tan nuevo que me resulta difícil pensar qué pedirle. Es como cuando la electricidad sustituyó al vapor. Primero hubo la tecnología y después la reorganización del trabajo y del modelo productivo. La pregunta que debemos hacernos es qué reconfiguración nos permiten estas herramientas. Existe un proyecto muy interesante, por ejemplo: los comités aumentados. En torno a un conflicto, se realizan entrevistas a diferentes grupos de interés y se configuran opiniones virtuales. Tienes cuatro o más perspectivas a la vez.

¿Y la IA también llega a una conclusión?

— No, la conclusión debe ser humana. Es importante porque ofrece perspectivas que quizás te hubieran pasado por alto y facilita el diálogo entre perspectivas, pero la conclusión debe ser humana.

¿La IA no puede sustituirlo todo?

— No es el objetivo. Es un error delegar nuestra inteligencia y responsabilidad en la IA. Debemos tener cuidado de no caer en el sedentarismo intelectual. Es importante ser el conductor y que la IA sea el copiloto.

¿La IA, si genera contenidos originales, debe tener derechos de autor?

— En la UE esto no está resuelto. Es importante pensarlo desde el ámbito público. Tanto los derechos de autoría como la originalidad. Lo que me preocupa es la falta de responsabilidad de estas empresas y de exigencia de los usuarios y usuarias de la IA. Es una anécdota, pero el otro día la inteligencia artificial de Elon Musk empezó a generar respuestas sobre un supuesto "genocidio blanco" en Suráfrica. No importaba la pregunta que hicieras, la respuesta siempre era esa. Esto demuestra el peligro de depender de mecanismos sobre los que no tenemos ningún tipo de control. Con la tecnología digital, socialmente, nos hemos abstenido de realizar ciertas exigencias.

stats
OSZAR »