Desarrollo
Desarrollo de software a medida
Sistemas personalizados que parten de la necesidad real del cliente, no de plantillas genéricas.
Quiero cotizar algo así →
Noticia · Tech
Fuente original: ver enlace externo
A tres años del lanzamiento de ChatGPT, Loreto Bravo, directora del Instituto Data Science de la Universidad del Desarrollo (UDD) , recuerda que los primeros modelos de esta Inteligencia Artificial (IA) llamaron la atención por su fluidez, pero presentaban limitaciones importantes. “Cuando se lanzó, sorprendió mucho por su inteligencia o sus capacidades (…) Sin embargo, tenía muchas limitaciones, era muy propenso a hacer alucinaciones , es decir, cuando le preguntabas algo que no sabía, a contestar cualquier cosa”, comentó en conversación con Chócale .
Pero con el avance de nuevas versiones, la capacidad de conectarse a internet, cargarle archivos y otras características, la precisión comenzó a mejorar. “Pasamos a ChatGPT 4 y fuimos evolucionando. A la 4.2, a la 5 y ahora estamos en 5.1. Y ya cada vez comete menos errores (…) Yo diría que la evolución que hemos visto en estos 3 años es bastante impresionante” , afirmó.
IA en empresas: entusiasmo con poca estrategia Bravo observa que muchas organizaciones han querido implementar IA sin tener claro el problema que buscan resolver. “Hay mucho entusiasmo, pero muchas veces la actitud de las empresas es ‘ya tenemos que subirnos al carro, tenemos que incorporar la inteligencia artificial’, pero no piensan primero cuál es el problema que tienen”, señaló.
Foto: Pexels La adopción por tendencia —y no por necesidad— puede generar soluciones poco útiles. Por eso, insiste en que el primer paso debe ser identificar un caso de uso concreto. “Una de las recomendaciones importantes para las empresas es que primero se preocupen de identificar el caso de uso donde la inteligencia artificial puede hacer la diferencia”, explicó.
IA en educación: diferencias entre superiores, escolares e infancias Sobre el uso de IA en el aprendizaje, Bravo subraya que debe analizarse según el objetivo pedagógico y diferenciando entre estudiantes universitarios , que deben salir preparados para el mundo laboral, o estudiantes de colegios. “Cuando yo les voy a enseñar un contenido a los alumnos (universitarios), lo que yo me pregunto siempre es: '¿el objetivo es que aprendan a usar la IA para resolver este problema o el objetivo es que aprendan, por ejemplo, a desarrollar capacidad de abstracción?'”, señaló.
Advierte que el uso indiscriminado puede afectar el desarrollo de capacidades clave. “Si utilizan inteligencia artificial para todo, hay ciertas habilidades que tienen que desarrollar y que no van a poder hacerlo”, explicó.
Loreto Bravo, directora del Instituto Data Science de la Universidad del Desarrollo. (Foto: Universidad del Desarrollo) En el caso de las infancias, descarta fijar una edad específica y propone un acceso gradual. Sugiere una proporción acotada: cerca de 80% de actividades sin IA y 20% con IA , permitiendo explorar sin desplazar el aprendizaje esencial.
Las primeras aproximaciones, dice, deben ser lúdicas o guiadas. “Ir de a poquitito dándoles acceso (…) para que les ayude a aprender algún contenido, pero pensar en usos específicos”, señaló.
Sesgos y desinformación: Los riesgos que requieren atención Bravo advierte que los modelos actuales replican sesgos presentes en los datos con los que fueron entrenados. “La inteligencia artificial generativa (…) tiene muchos sesgos”, señaló.
Esto puede derivar en decisiones injustas, como en procesos de selección laboral, en los que podrían priorizar los perfiles masculinos al ser lo que se ha hecho históricamente.
También destaca la facilidad con la que se puede generar contenido falso convincente, como fake news muy realistas. “ Hay un gran riesgo de suplantación, estafas y fraude asociado al uso de la inteligencia artificial generativa ”, advirtió.
Ante esta realidad, insiste en la importancia de educar a las personas para identificar información dudosa. “Tenemos que aprender a cuestionarnos, aprender a buscar otras fuentes”, afirmó. Respecto al proyecto chileno de Ley de IA, Bravo indica que está inspirado en el modelo europeo. “Es muy similar, pero con algunas mejoras locales”, señaló.
Sin embargo, observa que en la Unión Europea ya reconsideran aspectos de su regulación. “Están viendo qué cambios hacen, qué cosas suavizan, qué requerimientos disminuyen porque se dieron cuenta de que la creación de esta legislación estaba produciendo un freno importante en la innovación en Europa”, asegura.
Para Bravo , Chile debe observar estos ajustes antes de avanzar en exigencias que podrían ser difíciles de implementar, especialmente para empresas pequeñas. “Lo que se viene ahora (…) es el periodo de los agentes, estos sistemas que son capaces de tomar acciones”, afirmó. Estas herramientas podrían realizar tareas completas de manera automática.
Para enfrentar este escenario, considera clave la alfabetización digital: “Todos deberíamos saber utilizar herramientas de IA generativa” , concluyó.
Soluciones dlabss para este tipo de historias
Desarrollo
Sistemas personalizados que parten de la necesidad real del cliente, no de plantillas genéricas.
Quiero cotizar algo así →Automatización
Eliminamos tareas manuales con flujos, bots y lógica de negocio automatizada.
Quiero cotizar algo así →Comentario dlabss
Muchos problemas empiezan por ‘no teníamos tiempo de hacerlo bien’. Nosotros creemos que el tiempo se gana haciéndolo bien desde el principio.
Cotiza un proyecto con dlabss →Reacciona a esta noticia
Cualquier visitante puede reaccionar con estas emociones rápidas. Si te registras, también podrás dejar comentarios.