Por Luis Armando Becerra-Pérez / Roberto Alonso Ramos-Álvarez
[email protected]; [email protected]
www.youtube.com/@VISIONB.1

En el Foro Económico Mundial, edición 2026, celebrado en Davos Suiza, uno de los temas tratados por los principales líderes mundiales y empresarios de diversos corporativos globales, fue la Inteligencia Artificial (IA). Lo trascendente de este hecho es que la discusión del tema ya rebasó los aspectos técnicos o de experimentación y se ha enfocado en la implementación y regulación. Se ha entendido que la IA no solo es una tecnología que tiene que ver con quien la usa, sino con toda la sociedad, y que trastocará todos los aspectos económicos, comerciales, sociales, laborales, ambientales, de salud, de seguridad, de educación, de movilidad, y de la vida cotidiana en general.

Po lo anterior, ya no se trata de si la IA alterará nuestras vidas y la forma de cómo nos relacionamos, sino de cómo hacerle para administrar y regular este “nuevo sistema operativo global”. La conclusión más importante del Foro Económico Mundial, en este tema, es sobre la necesidad de encontrar un sistema de gobernanza y responsabilidad, misma que no puede delegarse a equipos técnicos, sino que son las instituciones legales y políticas de los países, las que deben actuar para buscar un mayor nivel de seguridad y la alineación de la IA con la dignidad humana.

El hecho que la IA haya sido un tema de conversación al más alto nivel, en el Foro Económico de Davos, indica que los países desarrollados ya están preocupados ante la evolución de este fenómeno tecnológico, estimando que su control y aplicación juega un rol muy importante en la configuración geopolítica y militar del nuevo orden mundial. Las tendencias identificadas en dicha reunión, y que son a la vez retos para los países, se resumen a continuación:

1) La tendencia de la “IA Generativa” a la “IA Agenética”, la cual configura agentes de una IA que puede organizar grandes cantidades de datos complejos, y ser capaz de tomar acciones autónomas (algo parecido a pensar).

2) La IA como infraestructura básica, lo cual implica que estará presente en la operación cotidiana de las personas, ya sea en lo laboral, salud, educación, seguridad y movilidad.

3) Adopción escalonada y resultados reales, estimando que a partir de 2026 la IA iniciará a implementarse a gran escala y las empresas se enfocarán en obtener un valor económico medible y resultados tangibles.

4) Cambios en el mercado laboral, lo que implica que habrá reducciones en la plantilla de las empresas, iniciando por las áreas de conocimiento repetitivo, acciones mecánicas, medición de datos, y en general en cualquier empleo donde el criterio y contacto humano no sea indispensable. Según estimaciones de la propia IA, el 66% de las grandes empresas reducirán su plantilla entre 10% y 25% en los próximos tres años.

5) Impacto Económico, se estima que la IA puede incrementar el valor económico de las empresas. En Latinoamérica la IA podría sumar hasta 1.7 billones de dólares anuales, aunque en 2025 sólo 23% de las empresas indican estar relacionadas con la IA; esto a la vez indica el potencial corporativo que tiene.

6) Eficiencia energética requerida, la IA demanda altos volúmenes de energía eléctrica, por lo tanto, un factor clave para su sostenibilidad es encontrar tecnologías cada vez más eficientes.

7) Necesidad de regulación y responsabilidad ética, la IA requiere de un sistema de regulación y gobernanza cada vez más clara, transparente y efectivo por parte de las naciones.

8) Una IA de código abierto, lo que implica que podría desarrollarse un código abierto que haga más accesible la IA para las empresas, especialmente para las Mipymes, y para todas las personas.

9) La IA en el horizonte del tiempo, no hay concordancia sobre la velocidad con que la IA impactará a las diferentes capas de la sociedad, en lo que si concuerdan los expertos es que estamos ante un punto de inflexión, que marcará una tendencia que transformará el mundo tal y como lo conocemos.

10) Cambios en la educación, formación e investigación, lo que implica que las universidades y demás instituciones de formación e investigación, tal y como las conocemos hasta ahora, cambiarán para siempre. Y no sólo en cómo enseñan, sino qué enseñan, qué investigan, qué currícula académica promueven, cómo se organizan, cómo se administran, se acortarán los tiempos de formación, habrá múltiples sistemas online, carreras que desaparecen, reforzamiento de títulos STEM (Science, Technology, Engineering, Mathematics), en general deberán adecuar sus métodos y procesos para enfocarse en las habilidades blandas (cómo interactúan, se comunican y se desenvuelven las personas en entornos laborales y personales complejos) y asi preparar al estudiante para actuar en una nueva realidad, donde el 85% del éxito depende de estas soft skills.

En el caso de la salud: ¿reemplazará la IA a los médicos?

Lo cierto es que en los últimos años la IA ha dejado de ser un concepto futurista para convertirse en una presencia cotidiana. Desde recomendaciones en plataformas digitales hasta asistentes virtuales, su influencia es cada vez mayor. Sin embargo, cuando la IA entra en el terreno de la medicina, surge una pregunta que provoca inquietud tanto en profesionales de la salud como en pacientes: ¿podrá la inteligencia artificial reemplazar a los médicos?

La preocupación no es infundada. Estudios publicados en revistas científicas de alto impacto han demostrado que algunos sistemas de IA pueden igualar o incluso superar a médicos humanos en tareas muy específicas. Por ejemplo, investigaciones en Nature Medicine han mostrado que algoritmos de aprendizaje profundo pueden detectar cáncer de piel en imágenes con una precisión comparable a la de un dermatólogo experto (Esteva et al., 2017). De manera similar, otros trabajos han documentado sistemas capaces de identificar arritmias cardíacas a partir de electrocardiogramas con resultados equivalentes a los de un cardiólogo entrenado (Rajpurkar et al., 2017).

Estos avances han alimentado la narrativa de que los médicos podrían volverse obsoletos. Sin embargo, esta interpretación simplifica en exceso lo que realmente implica la práctica médica. Como señala Eric Topol en Nature Medicine, la medicina no es solo el acto de diagnosticar, sino una combinación compleja de conocimiento científico, juicio clínico, comunicación humana y toma de decisiones éticas (Topol, 2019).

La inteligencia artificial destaca en contextos donde existen grandes volúmenes de datos bien estructurados y un problema claramente definido. Puede analizar miles de imágenes o historiales clínicos en segundos, algo imposible para un ser humano. Pero la atención médica real rara vez ocurre en escenarios ideales. Los pacientes no llegan al consultorio con síntomas perfectamente ordenados y con suficientes datos; llegan con dudas, miedo, desconocimiento, antecedentes sociales y emocionales, los cuales influyen directamente en su salud y la recuperación del paciente.

Tal como advierten Obermeyer y Emanuel en The New England Journal of Medicine, los algoritmos carecen de comprensión contextual y pueden reproducir sesgos presentes en los datos con los que fueron entrenados, lo que representa un riesgo si se usan sin supervisión humana (Obermeyer & Emanuel, 2016). Un sistema puede sugerir un diagnóstico, pero no puede explicar sus implicaciones de manera empática, sensible, ni acompañar a un paciente en decisiones difíciles sobre su tratamiento.

Más que reemplazar médicos, la IA está transformando su forma de trabajar. Según The Lancet Digital Health, estas tecnologías tienen el potencial de reducir la carga administrativa, mejorar la precisión del diagnóstico y liberar tiempo para que los médicos se concentren en la relación con el paciente (The Lancet Digital Health, 2018). En este sentido, la IA actúa como un apoyo, no como un sustituto.

No obstante, el avance tecnológico también plantea desafíos éticos. ¿Quién es responsable si un algoritmo comete un error? ¿Cómo se garantiza la transparencia en sistemas que funcionan como “cajas negras”? ¿Qué ocurre con la privacidad de los datos médicos? Estas preguntas siguen siendo objeto de debate y refuerzan la necesidad de que la IA sea utilizada bajo marcos regulatorios claros y con criterios éticos sólidos.

En este contexto, el perfil del médico también está cambiando. El profesional de la salud del futuro necesitará habilidades digitales, capacidad para interpretar resultados generados por IA y, sobre todo, pensamiento crítico para saber cuándo confiar y cuándo cuestionar a la tecnología. Como señala Topol, la verdadera revolución no es una medicina sin médicos, sino una medicina más humana apoyada por máquinas inteligentes (Topol, 2019).

Entonces, ¿reemplazará la inteligencia artificial a los médicos? La evidencia sugiere que no. Pero sí reemplazará a quienes no estén dispuestos a adaptarse. La medicina del futuro no será una competencia entre humanos y máquinas, sino una colaboración donde la tecnología amplifique las capacidades humanas sin perder de vista que, al final de cuentas, la salud sigue siendo una experiencia profundamente humana.

***

Referencias

Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., & Thrun, S. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Nature, 542(7639), 115-118. https://doi.org/10.1038/nature21056

Lancet, T. (2017). Artificial intelligence in health care: Within touching distance. Lancet (London, England), 390(10114), 2739. https://doi.org/10.1016/S0140-6736(17)31540-4

Obermeyer, Z., & Emanuel, E. J. (2016). Predicting the future—big data, machine learning, and clinical medicine. N Engl J Med. 2016 Sep 29;375(13):1216-9. https://doi.org/10.1056/NEJMp1606181. PMID: 27682033; PMCID: PMC5070532.

Rajpurkar, P., Hannun, A. Y., Haghpanahi, M., Bourn, C., & Ng, A. Y. (2017). Cardiologist-level arrhythmia detection with convolutional neural networks. Nat Med 25, 530 (2019). https://doi.org/10.1038/s41591-019-0359-9

Topol, E.J. High-performance medicine: the convergence of human and artificial intelligence. Nat Med 25, 44–56 (2019). https://doi.org/10.1038/s41591-018-0300-7

 

 

 

Las opiniones expresadas aquí son responsabilidad del autor y no necesariamente reflejan la línea editorial de ESPEJO