La entrada y salida de IBM. Breve historia de la Inteligencia Artificial 7

IBM desarrolló el primer programa para demostrar un teorema geométrico.

Durante décadas, IBM fue el líder indiscutido de la industria informática. Aún hoy, aunque no ocupa el rol preponderante que alguna vez supo tener, su trabajo continúa siendo relevante. Sin embargo, en el caso de la Inteligencia Artificial, la entrada y salida de IBM fue bastante rápida aunque muy importante.

En los cincuenta, las investigaciones sobre esta disciplina se consideraban parte integral de los conocimientos necesarios para construir mejores ordenadores. Por lo que IBM decidió dar luz verde al desarrollo de un programa que resolviera teoremas.

La entrada y salida de IBM

Habíamos visto en artículos anteriores que Simon y su equipo tuvieron éxito con un programa que demostraba teoremas matemáticos. Para esto, tuvieron que crear un lenguaje de programación nuevo.

El desafío que encaraba IBM tenía un problema adicional. Para que el ordenador pudiera demostrar un teorema geométrico tenía que ver la figura. Todavía no se habían inventado las cámaras web ni software capaz de procesar imágenes.

El equipo elegido para la tarea fue la IBM 704. Considerada como uno de los primeros superordenadores del mundo fue el primero de incorporar el hardware de punto flotante.

Las operaciones de punto flotante incluyen la adición, sustracción, división multiplicación y cálculo de raíz cuadrada con números muy grandes o muy pequeños.

Contaba además con una memoria de núcleo magnético que era más rápida que el sistema de tambor magnético utilizado en modelos anteriores y era capaz de ejecutar cuarenta mil instrucciones por segundo expresadas en instrucciones de 36 bits.

El software tardó tres años en estar listo ya que su responsable, un doctor en física llamado Herbert Gellenter, tuvo que inventar un nuevo lenguaje de programación que pudiera manipular símbolos como IPL pero que tuviera la facilidad de programación de Fortran, un desarrollo de la propia IBM para la creación de aplicaciones para cálculo científico.

El programa recibía información sobre la figura geométrica con la que tenía que trabajar en forma de una serie de coordenadas ingresadas en forma de tarjetas perforadas e iba deduciendo resultados intermedios a partir de los datos conocidos.

El software se conoció como Geometry Theorem Prover (Probador de problemas de Geometría) y basándose en aquellas propiedades que pudiera comprobar en el dibujo logró resolver un teorema de dos pasos a veinticinco posibilidades diferentes cuando haciéndolo a ciegas tendría que analizar un millón.

El probador de problemas de geometría fue el primero en usar una técnica conocida como referenciación de modelos. A menos que hayas aterrizado en un plato volador hace 5 minutos seguramente habrás escuchado hablar de uno de los últimos resultados de la aplicación de esta técnica: ChatGPT.

En el campo de la inteligencia artificial un modelo es una representación de un proceso complejo a partir de la cual se pueden hacer inferencias. En el caso del probador el modelo eran las coordenadas de la figura geométrica, en el de ChatGPT un modelo capaz de procesar el lenguaje humano.

Otros ordenadore de IBM se dedicaban a cosas menos serias como aprender a jugar a las damas o al ajedrez. En el primer caso el objetivo era ver si una máquina era capaz de aprender sobre la forma de jugar de su oponente. Finalmente logró vencerlo por lo que parece que sí.

Los éxitos tempranos de IBM fueron también la causa de su abandono de este campo. Los ordenadores dedicados a jugar al ajedrez y las damas tuvieron mucho éxito entre la prensa, pero no tanto entre los accionistas de la empresa que lo consideraron un despilfarro de dinero.

A esto hay que sumarle que el departamento de marketing de la empresa notó que entre sus potenciales clientes aumentaba la desconfianza hacia los ordenadores. Había miedo entre los encargados de adquirirlas de que su compra los terminara reemplazando.

Las investigaciones en Inteligencia Artificial se abandonaron y la nueva estrategia de marketing fue caracterizar a los ordenadores como procesadores de datos que solo hacían lo que se les decía.

¿Pasará lo mismo con las nuevas herramientas ahora tan en boga? ¿Se las prohibirá en las empresas por miedo a que terminen ocupando los más altos puestos?

Tendremos que esperar para verlo.

from Linux Adictos https://ift.tt/LKovdnW
via IFTTT

Microsoft ha gastado millones de dólares para construir la supercomputadora en la que se basa ChatGPT

Microsofts

Microsoft anunció nuevas máquinas virtuales potentes y enormemente escalables que integran las últimas GPU NVIDIA H100 Tensor Core y la red NVIDIA Quantum-2 InfiniBand

Microsoft ha gastado cientos de millones de dólares en la construcción de una supercomputadora masiva para ayudar a impulsar el chatbot ChatGPT de OpenAI, en un informe Microsoft explica cómo creó la poderosa infraestructura de inteligencia artificial de Azure utilizada por OpenAI y cómo sus sistemas se están volviendo aún más robustos.

Para construir la supercomputadora que impulsa los proyectos OpenAI, Microsoft afirma haber conectado miles de unidades de procesamiento de gráficos (GPU) NVIDIA a su plataforma de computación en la nube Azure. Esto, a su vez, permitió a OpenAI entrenar modelos cada vez más potentes y «desbloquear las capacidades de IA» de herramientas como ChatGPT y Bing.

Scott Guthrie, vicepresidente de inteligencia artificial y nube de Microsoft, dijo que la compañía gastó varios cientos de millones de dólares en el proyecto, según un comunicado. Y si bien eso puede parecer una gota en el océano para Microsoft, que recientemente amplió su inversión multianual y multimillonaria en OpenAI, ciertamente demuestra que está listo para invertir aún más dinero en el espacio de IA.

Cuando Microsoft invirtió $ 1 mil millones en OpenAI en 2019, acordó construir una supercomputadora masiva y de última generación para la puesta en marcha de investigación de inteligencia artificial. El único problema: Microsoft no tenía nada que OpenAI necesitara y no estaba completamente seguro de poder construir algo tan grande en su servicio en la nube de Azure sin que se rompiera.

OpenAI estaba tratando de entrenar un conjunto cada vez más grande de programas de inteligencia artificial llamados modelos, que ingirieron mayores volúmenes de datos y aprendieron más y más parámetros, las variables que el sistema de IA descubrió a través del entrenamiento y el reentrenamiento. Esto significaba que OpenAI necesitaba acceso a potentes servicios de computación en la nube durante largos períodos de tiempo.

Para enfrentar este desafío, Microsoft tuvo que encontrar formas de vincular decenas de miles de chips gráficos A100 de NVIDIA y cambiar la forma en que coloca los servidores en bastidores para evitar cortes de energía.

“Construimos una arquitectura de sistema que podría funcionar y ser confiable a gran escala. Esto es lo que hizo posible ChatGPT”, dijo Nidhi Chappell, gerente general de Microsoft para la infraestructura de Azure AI. “Es un patrón que salió de ahí. Habrá muchos, muchos más”.

La tecnología permitió a OpenAI lanzar ChatGPT, el chatbot viral que atrajo a más de un millón de usuarios a los pocos días de su salida a bolsa en noviembre y ahora está siendo absorbido por los modelos comerciales de otras empresas, desde las administradas por el multimillonario fundador de fondos de cobertura Ken Griffin en el momento de la entrega.

A medida que las herramientas de IA generativa, como ChatGPT, ganen el interés de las empresas y los consumidores, habrá una mayor presión sobre los proveedores de servicios en la nube, como Microsoft, Amazon y Google para garantizar que sus centros de datos puedan proporcionar la enorme potencia informática necesaria.

Ahora Microsoft está utilizando el mismo conjunto de recursos que creó para OpenAI para entrenar y ejecutar sus propios grandes modelos de IA, incluido el nuevo bot de búsqueda Bing presentado el mes pasado. La empresa también vende el sistema a otros clientes. El gigante del software ya está trabajando en la próxima generación de la supercomputadora de IA, como parte de un acuerdo ampliado con OpenAI en el que Microsoft ha agregado $ 10 mil millones a su inversión.

«No los construimos como algo personalizado; comenzó como algo personalizado, pero siempre lo construimos de manera que se generalizara para que cualquier persona que quiera entrenar un modelo de lenguaje grande pueda aprovechar las mismas mejoras». dijo Guthrie en una entrevista. «Realmente nos ayudó a convertirnos en una mejor nube para la IA en general».

Entrenar un modelo masivo de IA requiere una gran cantidad de unidades de procesamiento de gráficos conectadas en un solo lugar, como la supercomputadora de IA ensamblada por Microsoft. Una vez que un modelo está en uso, responder a todas las preguntas planteadas por los usuarios (lo que se denomina inferencia) requiere una configuración ligeramente diferente. Microsoft también implementa chips gráficos para inferencia, pero esos procesadores (cientos de miles) están dispersos geográficamente en las más de 60 regiones de centros de datos de la empresa. Ahora, la compañía está agregando el último chip de gráficos NVIDIA para cargas de trabajo de IA (el H100) y la última versión de la tecnología de red Infiniband de NVIDIA para compartir datos aún más rápido.

La decisión de Microsoft de asociarse con OpenAI se basó en la creencia de que esta escala de infraestructura sin precedentes produciría resultados (nuevas capacidades de IA, un nuevo tipo de plataforma de programación) que Microsoft podría convertir en productos y servicios que brindarían beneficios reales a los clientes, dijo Waymouth. Esta creencia ha alimentado la ambición de las empresas de superar todos los desafíos técnicos para construirlo y continuar ampliando los límites de la supercomputación de IA.

Fuente: https://news.microsoft.com/

from Linux Adictos https://ift.tt/NnXeBhA
via IFTTT

Quien realmente se beneficia si TikTok es baneado en Estados Unidos?

Desde el anuncio que el gobierno estadounidense está considerando prohibir la popular aplicación de redes sociales TikTok, ha habido mucha especulación sobre quién realmente se beneficiará si la aplicación es finalmente prohibida.

¿Es esta una movida política para mostrar fuerza contra China, la casa de TikTok y su empresa matriz, ByteDance, o hay una preocupación real por la
seguridad nacional?

Mientras que el gobierno de los EE. UU. ha expresado su preocupación por la manera en que TikTok maneja los datos de los usuarios, muchos han argumentado que su verdadera motivación es política.

Al prohibir TikTok, el gobierno de los EE. UU. podría aumentar la tensión con China y enviar una señal clara de que no aceptará más la gestión del país sobre sus redes sociales.

Si bien es cierto que las preocupaciones de seguridad nacional son legítimas y deben ser abordadas, prohibir una aplicación con 150 millones de usuarios Estadounidenses, también tendría implicaciones económicas significativas. Muchos creadores de contenido han construido sus carreras en TikTok, y una prohibición les impediría acceder a su audiencia y potencial de ingresos.

En última instancia, es difícil determinar quién se beneficiará más de una posible prohibición de TikTok. Si bien parece haber motivaciones políticas en juego, la protección de la privacidad de los ciudadanos estadounidenses también debería ser una prioridad.

Con suerte, cualquier decisión tomada se basará en evidencia y tendrá en cuenta las ramificaciones tanto políticas como económicas de una prohibición de TikTok.

GitHub Copilot X: el polémico copiloto ahora también puede chatear

GitHub Copilot X

Ahora hará hace aproximadamente un año desde que descubrí y empecé a usar al copiloto del código de GitHub. Era impresionante: le ponías un comentario y te sacaba casi exactamente lo que querías, en ocasiones acertando al 100%. Meses más tarde, después de haberlo recomendado a compañeros e incluso a empresas, se comunicó que pasaría a ser de pago. Entonces empezó una polémica que aún no ha terminado, y es que el entrenamiento lo había recibido de los que lo habíamos estado usando e incluso de repositorios de GitHub que no eran públicos. Eso ya es parte del pasado, y el futuro es GitHub Copilot X, con más inteligencia artificial que nunca.

Como Google con Bard, DuckDuckGo con DuckAssist y Brave con Summarizer, todas las compañías saben que tienen que subirse al tren de la AI o morirán por no renovarse. Ahora mismo, somos muchos los que usamos ChatGPT para nuestras dudas sobre código, o directamente para que nos lo escriba, y ese era terreno GitHub desde hacía ya cerca de dos años (o a mí me hablaron de ello por aquel entonces). Incluso hay extensiones para Visual Studio Code en las que se puede seleccionar algo y mejorarlo, preguntar… GitHub le ha visto las orejas al lobo y ha presentado a GitHub Copilot X, que entre otras cosas incluye un chat… basado en GPT-4. Si no puedes con tu enemigo, únete a él.

GitHub Copilot X también está en lista de espera

Para ser honesto, yo no quiero probar esta herramienta. No, porque esto ya lo he vivido, incluso aunque fuera gratis. Lo hicieron mal y sin informar de lo que pasaría, y no les apoyo. En este artículo sólo informo. Para apuntarse en la lista de espera, hay que acceder a este enlace. Ofrecerá Copilot Chat, Copilot for Docs, Copilot for Pull Requests y Copilot for CLI.

Desde mi punto de vista, y tal y como entiendo yo la parte que integra GPT-4, habiendo usado extensiones de ChatGPT y viendo el vídeo, entiendo que va a funcionar un poco como esas extensiones: podremos chatear, e incluso compartir el código con ellas. Y si es así, sólo el desconocimiento de la existencia de estas extensiones harán que la gente se suscriba a GitHub Copilot X, cuyo nuevo nombre me parece que es parte de un movimiento de marketing.

Con el vídeo anterior podemos hacernos una idea de cómo funcionará, y me hace mantenerme en mi posición de que no es enormemente diferente a las extensiones que ya existen en la tienda oficial de Visual Studio Code. Una cosa sí tiene buena, y es que para los desarrolladores que no tienen que pagar por Copilot, van a tener lo mismo que ofrece esas extensiones, pero vitaminado o mejorado.

Recordamos que Copilot está actualmente por un precio de 10€/mes para los que no seamos desarrolladores compartiendo proyectos o estudiantes.

from Linux Adictos https://ift.tt/UOQdfGK
via IFTTT