La inteligencia artificial (IA) nace en 1956, y es un campo
de la informática que busca crear sistemas capaces de realizar tareas que
tradicionalmente requieren inteligencia humana como el aprendizaje, el
razonamiento y la percepción.
Con el tiempo empezó a evolucionar, y se manejaban conceptos
tales como “Redes Neuronales artificiales”, “Agentes autónomos”, “sistemas
reconocedores de patrones diversos” y otros sistemas que podían aprender a
jugar ciertos tipos de juegos.
Fue solo de fines de 2024 y principios del año 2025 que
empezó a utilizarse más remarcadamente por internet, creando sitios web,
hallando palabras clave para posicionarse; entre otras cosas a las que se les
podía sacar provecho.
Las limitaciones del Hardware (disco duro), al inicio del
tiempo de la IA no permitía hacer mucho, pero ahora con el procesamiento en
paralelo y distribuido con las computadoras de “N” número de núcleos y con “N”
número de Gigabytes de memoria, así como las granjas de computadoras que
procesan, también a nivel paralelo y distribuido, con miles y millones de datos
a la vez y con la velocidad del internet que, dicho de paso, ha aumentado a
gran escala, la IA ha logrado sacar más de su potencial.
Las redes neuronales artificiales permiten, a través de
reconocimiento de patrones, lograr reconocer rostros modificados, huellas
digitales, reconocimiento de voz y, con otras técnicas, programas que se
“autoarreglaban”.
Pero aun así, esta famosa
IA, no es confiable del todo, siempre debería de existir la supervisión
humana ya que estos sistemas, al cometer un error, no son capaces de
profundizar en la conciencia como para cambiar de decisiones como el “criterio
personal”, por ejemplo.
Para no tener problemas con estos sistemas se tendría que
programarlos, pero con regulación, para
no dañar al mismo ser humano, sino servirles o convivir con ellos, como es el
caso de las leyes de la robótica de Isaac Asimov, que dice:
1) Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando estas órdenes entren en conflicto con la Primera Ley.
3) Un robot debe proteger su propia existencia, siempre y cuando esta protección no entre en conflicto con la Primera o Segunda Ley.
En la película “YO ROBOT”, se manejan estas tres reglas y
todo iba bien, hasta que se dieron cuenta que el ser humano era peligroso y se
podía hacer daño así mismo y esa percepción hizo a los robots empezar hasta a
vigilar de manera extrema al ser humano llegando hasta encarcelarlos para que
no se hicieran daño.
Por otro lado ¿Qué pasaría si un sistema determinado llegara
a tener conciencia de sí mismo? Sus capacidades serían superiores a la de los
seres humanos, y así como el hombre tendrían deseos, y empezarían los
problemas, entonces se harían realidad películas como “Terminator” o “La
Matrix”. Pero podríamos decir que estamos muy lejos de llegar a eso. Es por eso
que la IA tiene limitaciones y es “perfectible” como todo lo humano o creado
por el ser humano. Porque: Como programas el amor, la sabiduría, el criterio,
la conciencia o la creatividad ? Entre otras cosas que nos hacen lo que somos:
seres humanos!
Y si los científicos quieren llegar a eso, tendrían que
pensar bien como desconectarlos, por así decirlo, si ocurre un error en el
sistema no especificado y en cuanto ese sistema empiece a enloquecer y actuar
en formas inadecuadas para la humanidad.
Revisión. Dr. Marcos Robledo Santa Ana. Jefe de Redacción de
Revista de La Paz BCS
1) Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando estas órdenes entren en conflicto con la Primera Ley.
3) Un robot debe proteger su propia existencia, siempre y cuando esta protección no entre en conflicto con la Primera o Segunda Ley.
