‘Inteligencia artificial’ ha sido elegida palabra del año en 2022 por la Fundación del Español Urgente (Fundeu). Y no es para menos, ya que la inteligencia artificial ha logrado trascender el ámbito tecnológico y se ha extendido a toda la sociedad, acompañándonos a todos en nuestra vida cotidiana.
Esta tecnología está en todas partes: en los sistemas de recomendación de Netflix o Amazon, en el procesamiento del lenguaje natural de los asistentes de voz o de los chatbots, en los robots con los que aspiramos nuestras casas, en el reconocimiento de rostro y de huellas digitales de nuestros smartphones, en los correctores de texto… Sus aplicaciones son innumerables.
Establecer el origen de la inteligencia artificial no es fácil, ya que depende del hito en el que fijemos su punto de partida. Quizá podríamos citar como su precursor a George Boole. Este matemático de la primera mitad del siglo XIX fue el primero que planteó que el razonamiento lógico podía ser sistematizado de la misma forma que un sistema de ecuaciones. De hecho, el álgebra de Boole sentó las bases de la aritmética computacional moderna.
Si nos fijamos en el momento en el que se habló primera vez de ‘robot’, entonces tendríamos que irnos hasta 1920. En ese año, el dramaturgo checo Karel Čapek utilizó este término en una obra de teatro sobre una empresa que construía humanos artificiales orgánicos, a los que denominaba ‘robots’, a partir de la palabra checa ‘robota’, que significa ‘trabajo duro’ y se asociaba al periodo de trabajo que los siervos debían conceder a los señores feudales, extendiéndose así al concepto de ‘servidumbre’.
En realidad, estos robots se refieren más a lo que hoy podríamos denominar androide o robot antropomórfico. Sin embargo, si hablamos de la ‘robótica’ en su sentido amplio, como una ciencia centrada en el diseño, construcción, funcionamiento y aplicaciones de los robots, tal vez deberíamos citar a Isaac Asimov, padre de las famosas tres leyes de la robótica, aparecidas por primera vez en 1942.
Aquel era un planteamiento teórico, pero en la década de los 40 empezaron a desarrollarse los primeros ordenadores de la historia, máquinas programables y completamente automáticas, como la Z3 de Konrad Zuse.
Esas máquinas distaban mucho de lo que hoy podríamos entender como inteligencia artificial, pero eran los cimientos sobre los que habría de construirse aquella. Consciente de ello, Turing creó en 1950 una prueba que permitiera determinar si una máquina es capaz de engañar a una persona haciéndola creer que realmente es un humano: el test de Turing. Este hito se alcanzó en 2014, cuando el chatbot Eugene Gootsman convenció a un tercio de los jueces de que estaban chateando con un niño ucraniano de trece años.
Pese al importante papel de Turing en la concepción de la inteligencia artificial, debemos agradecer la creación de este término a John McCarthy, que habló por primera vez de ‘inteligencia artificial’ en una conferencia en 1956.
Un paso adelante en la historia de la inteligencia artificial vino en 1958 con el Perceptron de Frank Rosenblatt, el primer algoritmo que presentaba una red neuronal simple. Se basaba en principios de la neurobiología, como los propuestos por Santiago Ramón y Cajal o Charles Scott Sherrintong sobre el funcionamiento del cerebro humano.
Otro hito en el camino de la inteligencia artificial fue la victoria del ordenador Deep Blue de IBM frente al maestro de ajedrez Gary Kasparov, en 1996. Esta victoria se fundamentaba en la fuerza bruta de la computadora.
Sin embargo, más impactante fue la derrota de Lee Sedol, campeón del juego de go, que perdió ante AlphaGo en 2015. Esta máquina, desarrollada por Google DeepMind se basa en técnicas de aprendizaje automático y de árbol de búsqueda y una base de datos con millones de partidas.
Además, la inteligencia artificial está demostrando en los últimos años que es capaz de mejorar el desempeño de los humanos en muchas tareas. Sin embargo, la mayoría de los expertos afirman con rotundidad que todavía está lejos de superarnos, sobre todo si hablamos del ámbito de las artes, como la literatura, la música o la pintura. No obstante, la inteligencia artificial está demostrando que cada vez se desenvuelve mejor ese tipo de labores más humanas, que exigen creatividad.
En realidad, cuando hablamos de inteligencia artificial nos referimos a un conjunto de tecnologías que se entrelazan entre sí, como machine learning o aprendizaje automático, procesamiento del lenguaje natural (PLN), visión por computadora (OCR, por sus siglas en inglés), redes neuronales, deep learning o aprendizaje profundo, automatización de procesos (RPA, por sus siglas en inglés), etc. Todas estas tecnologías se están empleando para múltiples aplicaciones.
Según Stratesys, podemos identificar siete enfoques de inteligencia artificial que tuvieron un gran protagonismo y que seguirán marcando tendencia en 2023. Una de ellas es el automated machine learning (Auto ML), que simplifica el acceso a la inteligencia artificial. La consultora explica que “con la ayuda del aprendizaje semisupervisado y autosupervisado se pueden producir al menos tres veces más modelos que utilizando un esquema tradicional, reduciendo costes y democratizando el desarrollo de modelos de inteligencia artificial”.
Otra tendencia es hacia el desarrollo de no code/low code machine learning. “Varias plataformas permiten a las empresas funcionar sin la necesidad de un ingeniero o desarrollador. Esto es posible porque los usuarios pueden crear sus propias herramientas con una interfaz de ‘arrastrar y soltar’, en lugar de requerir una codificación complicada para hacerlo. Esto trae consigo el ahorro de dinero y tiempo al requerir menos habilidades tecnológicas y menos escritura de código”, afirma Stratesys.
También destaca los avances en machine learning operationalization management (MLOps). “Engloba un conjunto de prácticas enfocadas a implementar y mantener los modelos de inteligencia artificial de manera confiable y eficiente para las empresas. Primero se debe pasar por una fase de desarrollo continuo (DevOps) dónde los modelos se prueban y desarrollan en sistemas experimentales aislados. Cuando son aprobados por negocio, estos pasan a la fase de despliegue o puesta en producción (MLOps). En ésta última fase, se busca aumentar la automatización y mejorar la calidad de los modelos desplegados, al mismo tiempo que se enfoca en los requisitos regulatorios y comerciales”.
La consultora también habla del reinforcement learning. “Este enfoque se asociaba mucho a la robótica, ya que utiliza un sistema de recompensa y castigo para reforzar el aprendizaje. Desde hace tiempo, se utiliza para problemas donde intervienen dispositivos de interacción robótica (arañas, drones, robots, etc). Con la explosión del mundo de process mining y simulación de procesos, este enfoque ha ganado un nuevo campo de aplicación, al buscar el mejor camino posible dentro de una gran variedad de posibilidades para ejecutar el mismo proceso”.
Otra tendencia es la combinación de RPA y process mining. “Por un lado, RPA permite que un sistema automatice cualquier proceso que pueda ser repetitivo, lo que hace posible que las personas dediquen su tiempo a trabajar en otros proyectos que requieren habilidades de pensamiento humano más críticas. Sin embargo, todos los pasos deben estar bien predefinidos antes de que el ‘bot RPA’ pueda procesarlo, ya que desviaciones no contempladas puede hacer que falle. Por otro lado, process mining logra detectar los procesos de la empresa dónde se consume más tiempo. Además, contar con la capacidad de simulación permite la preparación de escenarios no contemplados que puedan surgir de forma repentina —COVID-19, por ejemplo— y con ello ver las afectaciones en el ciclo de vida del proceso y cómo afrontarlas”, especifica.
Asimismo, la consultora destaca la innovación en torno a la Generative AI. “Este enfoque es capaz de producir texto, voz e imágenes, abarcando publicaciones de blogs, código de programa, poesía y obras de arte, e incluso ganar concursos”, explica.
Por último, Stratesys se refiera al Tiny ML. “Este enfoque tiene como objetivo el desarrollo de modelos de inteligencia artificial que utilizan maquinaria con restricciones de hardware, como microcontroladores. Los algoritmos están diseñados y desarrollados de forma optimizada para consumir la menor cantidad de recursos mientras mantienen una elevada eficacia. Los datos no necesitan procesarse en la nube, mostrando independencia y autoaprendizaje. Con Tiny ML, impresoras, televisiones y automóviles podrán realizar tareas que antes solamente las computadoras y smartphones eran capaces de manejar”, asegura.
La aplicación de la inteligencia artificial en la generación de textos, imágenes o código está despertando especial interés. “Generative AI produce modelos de inteligencia artificial complejos para predecir la siguiente palabra en función de secuencias de palabras anteriores; o la siguiente imagen, en función de palabras que describen imágenes anteriores”, explica Stratesys.
ChatGPT se basa en el PLN y en el uso de redes neuronales autorregresivas, teniendo en cuenta que cada palabra está condicionada por el resto de palabras y por el contexto, generando textos más coherentes. Además, es capaz de interactuar en varios idiomas.
Aunque también hay otros muchos ejemplos, como Compose, Copy.ai, HyperWrite, Genei o Lately que ayudan a automatizar la escritura, reformular oraciones o resumir textos más largos para generar textos para mensajes en redes sociales, correos electrónicos, anuncios, blogs, etc.
También desarrollada por OpenAI, otra plataforma que ha tenido mucho éxito en los últimos meses es DALL-e. Esta herramienta es capaz de generar imágenes a partir de descripciones escritas en lenguaje natural, apoyándose en una red neuronal. Cabe destacar que es capaz de crear imágenes que no existen en la realidad. Stable Diffusion ofrece una propuesta similar.
Además, hay otras muchas empresas que se centran en la generación de imágenes. Por ejemplo, Pixelvibe crea fotos de stock por inteligencia artificial, así como animaciones, creaciones conceptuales, diseños, etc. También hay herramientas que permiten manipular imágenes con facilidad, como ClipDrop; o que ayudan a automatizar la creación de presentaciones, como Beautiful.ai.
La generación de código de programación con la asistencia de inteligencia artificial también está despertando mucho interés. El ejemplo más notable es GitHub Copilot, herramienta pensada para ayudar a los desarrolladores a escribir código más rápido y evitar posibles errores, realizando sugerencias a medida que escriben. Y ChatGPT también permite corregir o escribir código en casi cualquier lenguaje de programación.
Además, hay otras muchas plataformas que aprovechan el potencial de la inteligencia artificial para generar transcribir conversaciones a texto, limpiar audios, crear música, elaborar chatbots, generar vídeos, etc., como podemos ver en este mapa publicado por Antler.
Como vemos, la aplicación de la inteligencia artificial puede ayudarnos mucho en nuestra vida cotidiana, pero su uso también arroja algunas sombras. Por ejemplo, algunos profesores de instituto y universidad han detectado que sus alumnos están utilizando ChatGPT para la redacción de sus trabajos de clase, tal y como informaba The Guardian.
OpenAI ha reaccionado a ello y permite copiar el texto en la propia plataforma y preguntar si ha sido escrito por una persona o por una inteligencia artificial. Y también existen otras herramientas que ayudan a detectar textos redactados por una máquina.
Otro asunto espinoso es la autoría de los resultados generados con el apoyo de este tipo de plataformas de inteligencia artificial. Teóricamente, el autor es la persona que pide a la inteligencia artificial la creación de un determinado producto. Sin embargo, los términos de uso de estas plataformas pueden reflejar otras condiciones.
También hay que tener en cuenta que estas herramientas pueden ser utilizadas de manera malintencionada. Por ejemplo, es posible crear deepfakes con el objetivo de dañar la imagen de una persona o de una marca, para extorsionar a una persona, para llevar a cabo una campaña de manipulación o desinformación política, para generar vídeos pornográficos de personajes públicos, etc.
Finalmente, hemos de tener en cuenta los aspectos relacionados con la explicabilidad, ética y responsabilidad en el uso de la inteligencia artificial, que suponen un importante desafío para este sector.
Como respuesta al mismo, algunas empresas están trabajando en el desarrollo de herramientas que garanticen explicabilidad de sus sistemas de inteligencia artificial o colaboran con instituciones que abogan por la ética en la utilización de la inteligencia artificial. Asimismo, diversos organismos también están tomando cartas en el asunto, publicando directrices o recomendaciones, como la Unesco o el Parlamento Europeo.
Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…
Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…
Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…
Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.
Ya cuenta en su poder con más del 90 % de las acciones del proveedor…
Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…