Harbour & AI

Ayer en la tertulia de muchos viernes, Mr. Antonio Linares nos deleitó con sus explicaciones, pruebas realizadas, suposiciones, ... simplemente solo puedo dar una definición de como fue toda la charla: Espectacular !

Uno de los grupos de wsp en los que nos reunimos unos cuantos locos de Harbour está también él, de echo fue quien lo abrio y lo forman expertos dentro del mundo HB, y en la que diariamente se habla de todo tipo de cosas, temas de la vida, diferentes pensamientos y opiniones planan sobre nosotros, incluso los astros nos dan también su influencia, pero... tambien hablamos mucho sobre harbour, su futuro, opciones, posibilidades... 

En los últimos meses hemos "sufrido" muchos dias explicaciones de AL de como iba entendiendo poco a poco los diferentes conceptos, técnicas, objetivos,... Cierto es que para la mayoria de nosotros todo este tema se nos escapa a nivel técnico y quizas por la falta de la energia necesaria para abordar este tema lo vemos mas desde un lado, pero no para Antonio. Para que os hagais una idea de lo que supone entrar en este tipo de retos, como tambien lo hizimos con el mod y otros, el otro dia me llamó para intentar ayudarle en como solucionar un tema e intentar conectar usando el webview el chat de huggingface, pues solo comentar que quizas estuvimos conectados un par de horas largas hasta que yo tuve que salir a las 20.00 corriendo a comprar para poder cenar :-). Pero él llevaba ya desde las 12 probando y probando... Quiero decir esto, porque muchas veces la magia de una linea de code es fruto de horas y dias de I+D.

Todo el mundo ya conoce "chatgpt", ya saben que hay una maquinita que empieza a ser mas que un buscador y que poco a poco te va dando soluciones que te pueden servir en tu tarea. Cierto tambien como he dicho en alguna ocasión  que "chatgpt contesta y se queda tan ancha" la realidad a dia de hoy es que aun se inventa cosas y muchas no tienen sentido, puedes apreciar como esta avanzando dia a dia y es cada vez mas potente, por eso tambien Antonio hizo incapie en no dar por bueno toodo lo que queda, siempre se ha de validar de alguna manera... (de momento!).

Porqué he definido de espectacular al inicio? Porque ha sido una charla en la que nos ha situado a todos quizás en este tablero y en esta guerra entre las principales empresas tecnológicas: Openai vs Meta, estratégias, tipos de modelo, capacidades, conceptos,... con ejemplos funcionales de como simulaba diferentes personalidades que te iban contestando como si fueran personajes dándote su opinión junto con diferentes citas, ...

En las últimas pruebas que estan realizando ya están probando con llama-3 que según Antonio ya es mas potente que gpt-4 de openai. Recuerda que llama-3 es un modelo liberado por Meta (del chico de Facebook, Instagram,...) por lo que se pueden ver ya diferentes estrategias a nivel empresarial. Mientras OpenAi te hace pagar unos 20$/mes,  Hugging Face te permite usarlo de manera ilimitada con modelos como el llama-3 y encima mas potente que el gpt-4. 

Cuando le preguntamos como ha sido entrenado ese modelo, el propio modelo nos contesta entre otras que le han "enchufado" mas de 100,000,000 de libros ! y esto te rompe ya los esquemas de la cantidad de información que estos sistemas manejan con sus grandes bases de datos vectoriales y los diferentes algoritmos transformers que se necesitan para procesar.

Entre la mucha información que nos va dando Antonio sobre sus introspecciones, exploraciones, ... sobre el tema de la AI,  nos comenta que ya existe un acceso a meta.ai pero se ve que esta restringido solo a EE.UU por temas de protección y accessos desde la UE, pero que facilmente con una VPN p.e. usando Opera y conectando desde Asi se podria acceder. 

Como veis, son detalles que nos va exponiendo y poniendo todas las piezas en el tablero para comprender aun mas todo lo que se está moviendo en este escenario, por eso fue tan didáctico a nivel de encaje de piezas que nos ayudo a situarnos mejor en la comprensión y en el mapa de todo este mundillo.

Hubo un momento que le puso un sintetizador de voz a la salida de respuesta del chat y fuera de una simple anécdota ya que todos hemos visto sintetizadores de voz, estabamos delante una maquina que nos iba contestando a todo lo que preguntabas con su propia voz. Era como una película, asi lo veia yo, una especia de Hal9000 de 2001 Odisea en el espacio o cualquier otra de cualquier película de ciencia-ficción. La diferencia es que era una situación ya real, ya la estamos viviendo de la misma manera. Una máquina que le preguntamos y nos da su respuesta con su voz, pudiendo modificar o mirar de ir perfeccionando esa respuesta para al final tu decir.... Wow.

Vale la pena que veais toda la sesión si teneis oportunidad, aborda muchos temas: tipo de métricas, fiabilidad en la programación de llama-3 vs GPT4, los numerosos lenguajes de programacion que conoce, idiomas en que se puede expresar, aprendizajes cruzados, como los modelos nuevos se alimentan de los viejos, los conceptos de ventanas de contexto limitados ahora a 8Kb mientras q google las tiene a 1Mb., el porque y sobre todo...como de 1 semana a otra ya todo a cambiado de nuevo. 

Es una carrera vorágine de ver quien da mas, quien ofrece mejor o mas espectular modelo,...

Creo que comento que mientras existen diferentes modelos, podemos usar el de llamma-70 que es por ahora el mejor segun su sensación y que estan entrenando el llama-400, en fin dia a dia a pasos de gigante. 

Nos mostró como crearnos un modelo Llama-3 de manera fácil y probamos alguno de los que teneia ya creados como por ejemplo este, que es un modelo limpio de llama-3

https://huggingface.co/chat/assistant/66238e78096b24c9dad9457c

Y la manera en que lo iba corrigiendo y dando reglas para ir afinándolo cada vez mas. Una de las cosas que mas impacta ya es ver a que velocidad contesta y otra a tener cuenta es que es un sistema totalmente gratuito que ya esta a nuestro alcance de una manera facil y que nos permitirá experimentar.

Nos comento el concepto AGI y la capacidad que puede tener la IA para razonar y juzgar para poder auto-ajustarse para poder encontrar la solucion a un problema. Y aqui es donde vino el ejemplo que está montando Antonio con Harbour y Fivewin en el que desde la GUI y usando webview usa la capacidad del chat de huggingface para poder enviar y capturar datos. Que ventaja en clave desarrolador tiene esto ? Pues una de las mas claras es que nosotros podemos pedirle una rutina a la IA y este nos da una respuesta, capturar esta respuesta, compilarla y si nos da fallos decirle a la IA de nuevo que espabile que da fallos en tal sitio, entrando asi en un bucle hasta encontrar una posible solución. Esta manera de hacer ayudaria mucho a ayudar lenguajes como nuestro Harbour, simplemente todo bastante increible. 

Estamos delante de la explosión de este nuevo sistema y la estamos viviendo, una vez mas de la misma manera que vivimos el nacimiento de toda la informatica. Desde aqui dar las gracias a Antonio por esta gran charla, la pasión con la que está tomando el tema y su energia para intentar entender y poder dar su ayuda a conectarlo con Harbour. Señores, pasen y tomen asiento...



Podeis ver el video aqui -> https://youtu.be/3_i1wDkNviY





 




Comentarios