Inteligencia Artificial no te tengo miedo.
Mi aventura aprendiendo sobre Inteligencia Artificial
Desde que empecé a programar, siempre tuve esa curiosidad insaciable por las nuevas tecnologías. Ya fuera Angular 2 (allá por 2016), Rust (2018) o la estandarización de herramientas como Docker, ReactJS y NodeJS, me encantaba aprender sobre todo lo que prometía ser “el futuro”. Plot twist: algunas lo lograron, otras… bueno, no tanto.
Soy una persona curiosa, así que siempre intento entender cómo funciona TODO. Y si hay algo que aprendí con esto, es que la mejor forma de entender algo es desarmarlo. ¿El problema? A veces no vuelve a armarse. Como cuando quise explorar mi impresora 3D... la quemé, pero al menos aprendí algunas cosas en el proceso.
Por suerte, en el mundo del software es poco probable que explotes algo sin solución (excepto si ejecutas un DELETE
sin WHERE
, ahí sí que no hay vuelta atrás).
Además de mi amor por la programación, siempre me han apasionado los videojuegos. Siguiendo esa pasión, intenté crear mi propio juego... obviamente, sin éxito. Pero en el camino descubrí algo que me fascinaba aún más que programar: la inteligencia artificial.
La inteligencia artificial, mi bella amiga.
La inteligencia artificial es ese concepto que todos creen entender, pero en realidad pocos conocen a fondo. Se escuchan frases como:
🗣️ “La IA nos va a matar a todos”
🗣️ “Hoy la IA no sirve para nada, solo para hacer imágenes o copiarte en un examen”
Ambas afirmaciones reflejan el desconocimiento que aún existe sobre el tema. Al final, todo depende de quién la programe y cómo se use. Una piedra puede ser un arma para hacer daño, pero también puede convertirse en los cimientos de una casa. Lo mismo pasa con la inteligencia artificial: por sí sola no representa un peligro, el riesgo está en el uso que le demos.
Ahora bien, antes de seguir… ¿qué es realmente la inteligencia artificial?
Como su nombre lo indica, es una inteligencia creada por humanos para imitar —o incluso superar— nuestra propia inteligencia. Puede manifestarse en algo tan cotidiano como Google Maps indicándote la mejor ruta, o en algo más avanzado como los autos Tesla, capaces de conducirse de forma autónoma. Y entre estos dos extremos, existen miles de aplicaciones más.
Acá dejo algunas más:
Diagnostico y detección temprana en salud
Descubrimiento de nuevos fármacos
Agricultura de precisión
Biometría
Educación
Detección de fraudes
Atención al cliente automatizada
y un largo etcétera más, estoy 100% seguro que alguno de los que está leyendo, usó (directa o indirectamente) algo de IA.
Algo nuevo no tan nuevo.
Es un error pensar que la inteligencia artificial es algo nuevo. Hoy es viral gracias a ChatGPT, que llegó para revolucionarlo todo, pero la realidad es que la IA existe desde hace mucho tiempo.
Incluso en la antigüedad, filósofos como Aristóteles ya hablaban de máquinas pensantes. Más adelante, en el siglo XIX, Ada Lovelace desarrolló el concepto de una máquina programable. Sin embargo, el verdadero nacimiento de la inteligencia artificial ocurrió entre 1956 y 1957, cuando se creó el Perceptrón, una de las primeras redes neuronales.
Desde entonces, la IA ha pasado por altibajos: las expectativas eran enormes, pero el hardware no era lo suficientemente potente para cumplirlas. Esto provocó períodos de estancamiento conocidos como los "inviernos de la IA".
Todo cambió a partir de 2010, con la llegada del Big Data y el Deep Learning. Gracias a la acumulación masiva de datos y la mejora del hardware, se lograron avances significativos en modelos de inteligencia artificial, como aquellos enfocados en visión computacional mediante redes neuronales profundas.
Hoy tenemos IA en la vida cotidiana: Asistentes virtuales (Siri, Alexa, Google Assistant), traducción automática (Google Translate), modelos de lenguaje que nos entienden y nos ayudan en nuestras tareas (ChatGPT, Claude, etc).
Pero entonces, ¿Cuándo nos va a destruir la IA?
NO! no te va a destruir la IA… aún.
Más arriba comenté sobre que esta posibilidad depende de quien la programe. Bueno, es verdad, pero hay algunas teorías un tanto locas.
Para poder explicarme, voy a hablar sobre 3 categorizaciones (entre todas las que hay) para las IAs:
Narrow AI (IA débil o estrecha)
📌 Definición:
La IA débil, también llamada IA estrecha (Narrow AI), es un tipo de inteligencia artificial diseñada para realizar tareas específicas sin comprender realmente lo que hace. No tiene conciencia, ni razonamiento, ni puede aprender más allá de su entrenamiento.📌 Ejemplos:
Asistentes virtuales: Siri, Alexa, Google Assistant.
Modelos de lenguaje: ChatGPT, Gemini, Claude.
Sistemas de recomendación: Algoritmos de Netflix, YouTube y Spotify.
IA en juegos: AlphaGo, que venció a campeones humanos en Go.
IA en visión artificial: Reconocimiento facial en teléfonos o cámaras de seguridad.
📌 Limitaciones:
Solo funciona en el contexto para el que fue programada.
No puede transferir conocimientos a otras áreas.
No tiene "inteligencia real", solo patrones matemáticos.
AGI (Artificial General Intelligence) (Inteligencia Artificial General)
📌 Definición:
La AGI (Inteligencia Artificial General) es una IA que podría razonar, aprender y aplicar conocimiento en cualquier dominio, igual o mejor que un ser humano. A diferencia de la IA débil, la AGI podría transferir conocimientos entre tareas y adaptarse a nuevos contextos sin intervención humana.📌 Ejemplo hipotético:
Un asistente de IA que aprende como un humano y puede responder a cualquier problema, desde resolver ecuaciones hasta escribir novelas, sin necesidad de entrenamiento específico.
📌 Estado actual:
No existe todavía, pero es el objetivo de empresas como OpenAI, Google DeepMind y Anthropic.
Se están desarrollando modelos avanzados con capacidades emergentes que podrían ser pasos hacia la AGI.
Strong AI (IA Fuerte) – Una Inteligencia Artificial con Conciencia (Teórica)
📌 Definición:
La IA fuerte, también llamada Strong AI, sería una inteligencia artificial capaz de razonar, aprender y comprender como un ser humano. No solo ejecutaría tareas programadas, sino que tendría conciencia, emociones y autonomía.📌 Ejemplos (Ficción y teoría):
IA en películas: HAL 9000 (2001: Odisea en el Espacio), Skynet (Terminator), Jarvis (Iron Man) y TARS, CASE y KIPP (Interestellar).
Sistemas hipotéticos: Una IA que pudiera razonar por sí misma y aprender sin límites.
📌 Estado actual:
No existe todavía.
Es un concepto teórico y filosófico.
Se estudia en campos como la neurociencia y la filosofía de la mente.
¿En qué estado estamos ahora?
Hoy en día, estamos en la era de la Narrow AI (IA estrecha), avanzando poco a poco hacia la AGI (Inteligencia Artificial General). ¿Cuánto falta? Difícil de decir. Creo que aún nos quedan varios años, pero con la velocidad a la que evoluciona la tecnología, quién sabe... quizás mañana despertemos con la primera AGI.
¿Les preocupa la Strong AI?
A mí también. Pero hay dos cosas a considerar:
Si llegamos a ese punto, será porque antes resolvimos desafíos enormes, desde enfermedades incurables hasta problemas globales que hoy parecen imposibles. Para crear una inteligencia de ese nivel, primero tendríamos que entender completamente nuestra propia inteligencia, algo que aún está lejos de suceder.
La IA Fuerte es solo una teoría. No existe —al menos por ahora— un poder de cómputo capaz de igualar el cerebro humano. La idea de una máquina con conciencia sigue siendo más cercana a la ciencia ficción que a la realidad.
A lo largo de la historia, la humanidad ha enfrentado grandes avances tecnológicos con miedo. Pero frenar el desarrollo de algo que podría transformar el mundo solo por una hipótesis no es la solución. La IA tiene el potencial de mejorar nuestra vida de formas que apenas estamos empezando a descubrir.
A lo técnico.
Bueno, perdón si escribí mucho, sé que quizás filosofé de más, pero esta bueno a veces sentarse y reflexionar… no?
Ahora vamos a hablar un poco mas técnicamente.
La inteligencia artificial no es magia (aunque a veces lo parezca). Su funcionamiento se basa en matemáticas, estadísticas y redes neuronales artificiales, que intentan imitar el comportamiento del cerebro humano. Para entenderlo mejor, veamos sus elementos clave:
Redes Neuronales y Machine Learning
¿Qué es Machine Learning?
El aprendizaje automático (Machine Learning, ML) es un área de la IA donde las máquinas aprenden patrones a partir de datos sin ser programadas explícitamente para cada tarea.
¿Y las redes neuronales?
Las redes neuronales artificiales están inspiradas en el cerebro humano. Se componen de nodos interconectados (neuronas artificiales) que procesan información en capas.
Ejemplo sencillo:
🧠 Cerebro humano: Aprende a reconocer un gato viendo muchas imágenes de gatos.
🤖 IA: Una red neuronal analiza miles de fotos de gatos hasta detectar patrones comunes (ojos, bigotes, orejas, etc.).
Tipos de redes neuronales:
Redes neuronales profundas (Deep Learning) → Tienen muchas capas y se usan en reconocimiento de imágenes, procesamiento de texto, etc.
Redes convolucionales (CNNs) → Usadas en visión artificial (como el reconocimiento facial).
Redes recurrentes (RNNs) → Usadas en procesamiento de texto y reconocimiento de voz.
Tipos de Modelos de Machine Learning
No todas las IA aprenden de la misma forma. Hay tres métodos principales:
Aprendizaje supervisado
🔹 Se entrena con datos etiquetados (ejemplo: imágenes de gatos con la etiqueta "gato").
🔹 La IA aprende la relación entre la entrada y la salida esperada.
🔹 Ejemplo real: Detección de animales en cámaras.Aprendizaje no supervisado
🔹 La IA analiza datos sin etiquetas y encuentra patrones por sí sola.
🔹 Ejemplo real: Algoritmos que agrupan clientes con hábitos de compra similares en tiendas online.Aprendizaje por refuerzo (Reinforcement Learning)
🔹 La IA aprende por ensayo y error, recibiendo recompensas o castigos según sus acciones (este me lo imagino como cuando queres entrenar a tu mascota para que se siente y solo lo premias cuando lo hace bien hasta que ya lo hace por sí solo).
🔹 Ejemplo real: AlphaGo, la IA de Google DeepMind que venció a los campeones de Go.
¿Cómo se Entrenan los Modelos de IA?
El entrenamiento de una IA es similar a entrenar a una persona en una nueva habilidad. Necesita datos, práctica y potencia de cómputo.
1. Datos (El "alimento" de la IA)
Sin datos, la IA no aprende nada.
Se recopilan millones de ejemplos (texto, imágenes, audios, etc.).
Se limpian y organizan en grandes bases de datos.
2. Potencia de Cómputo (GPUs y TPUs)
Los modelos avanzados de IA requieren hardware especializado como GPUs (tarjetas gráficas) y TPUs (unidades de procesamiento tensorial) para procesar enormes volúmenes de datos.
Las GPUs permiten que las redes neuronales realicen miles de cálculos en paralelo, acelerando el entrenamiento.
3. Proceso de Entrenamiento
Se toma un conjunto de datos de entrenamiento.
Se ajustan los parámetros del modelo mediante algoritmos matemáticos.
Se prueban los resultados en datos nuevos (validación).
Se repite el proceso hasta que el modelo tiene una precisión aceptable.
⏳ ¿Cuánto tiempo tarda?
Modelos pequeños pueden entrenarse en minutos u horas.
Modelos gigantes como GPT-4 pueden tardar semanas o meses con miles de GPUs en centros de datos.
¿Puedo desde mi computadora correr un modelo ya entrenado?
Si, se puede, pero depende mucho de tu computadora.
Para correr un modelo necesitamos 1 cosa principalmente… hardware
Si bien, no tanto como en el caso del entrenamiento, si depende de tu VRAM (Placa de video) y RAM mucho de esto.
¿Cómo Impacta la RAM en la Ejecución de Modelos de IA?
Carga del modelo en memoria:
Cuando ejecutamos un modelo de IA, primero se carga en la RAM.
Si la RAM es insuficiente, el sistema empieza a usar memoria virtual (swap), lo que ralentiza el proceso.
Procesamiento en CPU:
Si no tienes una GPU potente, la RAM juega un papel más importante porque el modelo se ejecutará en la CPU.
Modelos pequeños pueden correr en 8GB de RAM, pero modelos grandes pueden necesitar 32GB o más.
Intercambio con la VRAM:
En una PC con GPU dedicada, la RAM transfiere datos a la VRAM para que la GPU los procese.
Si la VRAM es insuficiente, algunos datos se almacenan temporalmente en la RAM, lo que puede ralentizar la inferencia.
¿Cómo Impacta la VRAM en la Ejecución de Modelos de IA?
Almacenamiento de pesos y tensores del modelo:
La VRAM es crucial para modelos grandes porque almacena los pesos y tensores del modelo en ejecución.
Un modelo como LLaMA 2–7B necesita ~8GB de VRAM solo para cargarse, mientras que LLaMA 2–13B puede requerir ~16GB de VRAM o más.
Cálculos acelerados:
La GPU usa la VRAM para almacenar datos de entrenamiento o inferencia y realizar cálculos en paralelo.
Una mayor VRAM permite manejar más datos simultáneamente, reduciendo los tiempos de espera.
Limitaciones por VRAM:
Si la VRAM es insuficiente, la ejecución del modelo será mucho más lenta o fallará.
Algunos frameworks permiten "paginado" (usar RAM como respaldo), pero esto hace que todo sea más lento.
Ahora si, tengo mi propia IA
No voy a entrar en detalle sobre como funciona cada una (no aún por lo menos) pero si tenes el hardware vas a poder correr muchas cosas. Depende de lo que necesites:
¿Queres correr una LLM? Podes correr
Ambos poseen distintos modelos o refinados, con diferentes pesos. Dependiendo de tu hardware vas a poder correr uno mejor, entre mejor el peso lógicamente menos alucinaciones y mejores respuestas.
¿Queres correr una IA Generativa de imagenes? Podes correr
Flux es mi favorito, por lejos genera las mejores imagenes. Si queres podes buscar pesos o modelos acá: Civitai . Esto te permite “tunear” un poco tu modelo para que tenga resultados orientados a una temática. Por ejemplo: Modelo metal comic
Y así hay muchísimos modelos que hacen muchísimas cosas más. Se pueden encontrar más acá:
Hugging Face
No tengo buen hardware (como yo)
Bueno, no desesperéis, siempre hay solución (lamentablemente pagas)
Existe dos posibilidades
Alquilar GPUs: Para este caso se puede alquilar la GPU que queramos sin ningun problema, siempre y cuando tengas la $$$$, por ejemplo he usado Vast AI sin ningún problema, te cobran por tiempo de uso y además por almacenamiento (este último por dia, cuidado al usarlo, mi recomendación para no gastar de mas es borrar la instancia). Corrí perfectamente Flux y Llama.
Usar APIs existentes: En este caso podemos usar la api de ChatGPT o Deepseek sin problemas, la segunda resulta ultra económica y muy poderosa. Para imágenes se puede usar MidJourney via Discord. También voy a mencionar, porque me encantó a ElevenLabs para generación de voz.