En 1943 McCulloch y Pitts crearon una neurona artificial que lleva su nombre, esta permitía, a partir de una suma ponderada de las entradas, generar una salida cuyo valor dependía de superar o no un umbral; a partir de extender esta idea, en 1958 Frank Rosenblatt definió el perceptrón, el cual tenía la capacidad de ajustar los pesos de la suma ponderada para que la función de activación diera información más certera. El desarrollo de Rosenblatt sentó las bases de lo que hoy son las redes neuronales, que al final son un arreglo de neuronas con una arquitectura de capas y conexiones específicas. La base de la moderna inteligencia artificial son estas redes neuronales artificiales. La inteligencia artificial (IA) ha experimentado una evolución significativa desde sus inicios. En los primeros días, la IA se centraba en programas que podían realizar tareas específicas, como jugar al ajedrez o resolver ecuaciones matemáticas. Sin embargo, estos sistemas eran limitados y no podían aprender ni adaptarse a nuevas situaciones. Con el tiempo, se empezó a explorar la idea de las redes neuronales artificiales (RNA), que son sistemas de cálculo vagamente inspirados en el cerebro humano. Las RNA pueden aprender de los datos y mejorar su rendimiento con el tiempo. Esto marcó un cambio importante en el campo de la IA, ya que permitió el desarrollo de sistemas que podrían aprender y adaptarse a nuevas situaciones. Las RNA evolucionaron aún más con el advenimiento de las redes neuronales profundas, que son RNA con muchas capas de neuronas. Estas redes pueden aprender patrones complejos y han demostrado ser extremadamente efectivas en tareas como el reconocimiento de imágenes y el procesamiento del lenguaje natural. En la actualidad, la IA está en el corazón de muchas tecnologías modernas. Se utiliza en una variedad de aplicaciones, desde la recomendación de productos en sitios web de comercio electrónico hasta la conducción autónoma de vehículos. A medida que la tecnología continúa avanzando, a futuro esta tecnología será transversal a casi todas las actividades humanas. Los parámetros de eficiencia en las redes neuronales artificiales son esenciales para determinar el rendimiento de la red. Algunos de los parámetros más importantes son: (1) Número y tamaño de capas: La cantidad y el tamaño de las capas en la red (2) Tasa de aprendizaje: La velocidad a la que el modelo ajusta los pesos durante el entrenamiento. Este es uno de los parámetros más importantes.(3) Número de neuronas: El número de neuronas en cada capa. (4) Funciones de activación: Las funciones matemáticas utilizadas para determinar la salida de una neurona dada su entrada. Las redes neuronales cuánticas (QNN) son un modelo de red neuronal que se basa en los principios de la mecánica cuántica. En la aproximación computacional a la investigación sobre redes cuánticas neuronales, se intenta combinar los modelos de redes neuronales artificiales (que son muy usados en el aprendizaje automático para la clasificación de patrones) con las ventajas de la información cuántica para desarrollar algoritmos más eficaces. Existe la expectativa de que ciertas características de la informática cuántica, como el paralelismo cuántico o los efectos de interferencia y entrelazamiento cuántico, puedan ser empleados para obtener ventajas sobre las redes clásicas. En el marco del proyecto, se llevará a cabo una investigación para desarrollar y comparar redes neuronales cuánticas con clásicas. La investigación se centrará en la comparación de la eficiencia de las redes neuronales, cuánticas y clásicas en varios aspectos de la inteligencia artificial. Se recopilarán datos para determinar las ventajas y desventajas de las redes neuronales cuánticas en términos de escalabilidad, entrenabilidad y expresividad. El proyecto contará con un enfoque interdisciplinario, combinando conocimientos en física, teoría de la información, algoritmos cuánticos y aprendizaje profundo. |