ChatGPT
-
Même si l’IA est devenue un sujet mainstream, il y a quelques débats de fond intéressants et surtout nécessaires autour de son émergence, des conséquences etc.
Vite, un panneau solaire.
Salut,
Même si l’IA est devenue un sujet mainstream
Moi cela me rappelle l’époque des PC multimédia, on t’en foutait partout.
C’est déjà une mode marketing/commercial on t’en fous partout de l’IA …Un jour t’en auras même dans ton paquet de patte a se rythme la 🙂
Cela peut être utile dans certain domaine, mais pour tous les jours on vas surement vite en revenir…
Pour le moment c’est tout nouveau, faut faire de l’argent avec le plus vite possible (se positionner le 1er).
C’est comme les casques virtuel qui devais nous changer la vie, les lunettes connecté, …https://youtube.com/@stephbb75
Une devinette assez « terrible » pour tester vos modèles d’I.A. et nos cerveaux hé hé :
Sally (une fille) a 3 frêres, chaque frère a 2 soeurs. Combien de soeurs a Sally ? 🙂
« Sally (a girl) has 3 brothers. Each brother has 2 sisters. How many sisters does Sally have? »
Vite, un panneau solaire.
l’IA j’ai rien contre dans l’absolu, étant fan de musique, j’ai été estomaqué (le mot n’est pas trop fort) par certaines « créations » de l’IA pour des artistes que j’affectionne et qui sont décédés. Pas tout, souvent des « cover » donc avec un bon texte et une bonne musique, et certaines fois ça le fait et d’autres pas du tout…mais quand ça marche, ça troue le slip.
Pour le graphisme, ya encore à travailler, l’IA a du mal avec les mains par exemple. Mais bon qu’on le veuille ou non…c’est l’avenir. trés proche. trés trés proche.
Amusant à savoir.
Yann Le Cun, un des spécialistes de l’intelligence artificielle (convolution de neurones, Rétropropagation du gradient) et de la tournure open source qu’elle prend actuellement a tapé sa thèse sur Amiga. Ça en fait un amigaïste de la première heure (dès 1986, 1987).Il est dommage que Python qui est le langage le plus utilisé pour les applications d’IA grand public soit à peu près complètement inutilisable sur Amiga 68k.
Python est disponible et fonctionnel sur Morphos et AmigaOS 4.Vite, un panneau solaire.
ModAllez jeter un oeil du côté du chan Midjourney sur Reddit, vous verrez ce qu’une IA (payante et dédiée) peut faire : https://www.reddit.com/r/midjourney/
Aussi sur leur page, les créations du jour : https://legacy.midjourney.com/showcase/recent/ (passez la souris sur l’image pour voir le prompt utilisé).
Only AMIGA makes it possible !
Il y a aussi les IA spécialisée dans l’upscaling qui rendent les images midjourney ou dall-e encore plus photo réalistes –> https://magnific.ai/
Mais ca coute une blinde.
Samuel.
Amiga A500 + GVP530 (8Mo/fpu/mmu/scsi) - en panne 🙁
A500 (+ 1Mo PPS), A1200 (Blizzard-IV/fpu/64Mo)
A500 Vampire V2+ ^8^ 🙂
(mais aussi TO8, TO8D, TO9. Groupe PULS.)« Open Source ».
https://huggingface.co/
Oubliez les machins payants.C’est vrai que les générateurs d’images et sons, Dall-E et autres sont bluffants mais c’est déjà dépassé par la croissance exponentielle de l’IA dans tous les domaines.
Pour ces outils, il faut minimum des GPU > 8 Go de vram et de la ram pour ne serait-ce qu’héberger un modèle 7B « quantizé » (réduit).
Certains (équipés de groupe électrogènes ?) font tourner des 120B et plus en local, ce qui pourrait être utile pour sortir entièrement en assembleur 68k un AmigaOS 3.4 heuristique 🙂
On n’en est pas encore la mais on n’en est pas loin.Vite, un panneau solaire.
Oh, les IAs n’ont pas forcément besoin de beaucoup de CPU et de mémoire pour fonctionner:
* https://forum.system-cfg.com/viewtopic.php?f=25&t=14874
* https://forum.system-cfg.com/viewtopic.php?t=14873Une question que je me pose: Est-ce que ceux qui s’étaient rués sur les cryptomonaies avec leur GPU surpuissants se ruent à présent sur l’IA qui a besoin des mêmes cartes graphiques ?
Samuel.
Amiga A500 + GVP530 (8Mo/fpu/mmu/scsi) - en panne 🙁
A500 (+ 1Mo PPS), A1200 (Blizzard-IV/fpu/64Mo)
A500 Vampire V2+ ^8^ 🙂
(mais aussi TO8, TO8D, TO9. Groupe PULS.)Oh, les IAs n’ont pas forcément besoin de beaucoup de CPU et de mémoire pour fonctionner:
Très intéressant, on apprend beaucoup de choses sur les Thomson, les différences entre le 6809 et le 6502 du C64.
Et le fait qu’on peut faire du deep learning en assembleur dans un micro-processeur 8 bits avec 7 Ko de programme. L’exploit serait de transformer Eliza en mini GPT relié à une base de données ultra optimisée de 100000 paramètres ;). Certains ont adapté des mini chat-bot sur un PI.Vite, un panneau solaire.
Il est dommage que Python qui est le langage le plus utilisé pour les applications d’IA grand public soit à peu près complètement inutilisable sur Amiga 68k.
C’est pas python le problème, c’est le manque de bibliothèques adaptées pour l’interfacer avec des composants externes et/ou de bas niveau comme Cuda ou TensorFlow. De toute façon l’amiga (classique) n’a pas l’architecture qu’il faut pour manipuler efficacement une masse de nombres flottants et y faire de l’apprentissage.
Samuel.
Amiga A500 + GVP530 (8Mo/fpu/mmu/scsi) - en panne 🙁
A500 (+ 1Mo PPS), A1200 (Blizzard-IV/fpu/64Mo)
A500 Vampire V2+ ^8^ 🙂
(mais aussi TO8, TO8D, TO9. Groupe PULS.)De toute façon l’amiga (classique) n’a pas l’architecture qu’il faut pour manipuler efficacement une masse de nombres flottants et y faire de l’apprentissage
On n’a pas d’outil pour faire du « deep learning » sur un 68030 ou 68060 ou un PIStorm. Mais le concept en asm avec le Thomson et son 6809 montre que c’est possible.
Ce qui est faisable actuellement : un « dataset » spécialisé Amiga (langages, données…) sur une machine qui fait fonctionner un modèle local open source.
Pour le moment, il n’y a rien à part quelques modèles en « traitement du langage naturel » qui comprennent les bases du C, de l’assembleur et qui ont quelques références à l’amiga dans leurs 7, 13, 32, 120… milliards de paramètres.Vite, un panneau solaire.
On n’a pas d’outil pour faire du « deep learning » sur un 68030 ou 68060 ou un PIStorm. Mais le concept en asm avec le Thomson et son 6809 montre que c’est possible.
Oui il faut faire l’apprentissage sur une autre machine et exporter ensuite le « large model » (pleins de gros coefs) et exécuter les opérations sur une autre machine. Mais même avec un FPU ca reste vache de très très lent faute à une volumétrie de calculs immense (sur thomson le modèle est tout tout petit. Pas de quoi supporter un LLM convaincant). Les fpu motorola manquent d’opération flottantes spécialisées dans les produits scalaires (fma, j’en ai déjà parlé) massivement parallèles (type SSE floating-point).
Samuel.
Amiga A500 + GVP530 (8Mo/fpu/mmu/scsi) - en panne 🙁
A500 (+ 1Mo PPS), A1200 (Blizzard-IV/fpu/64Mo)
A500 Vampire V2+ ^8^ 🙂
(mais aussi TO8, TO8D, TO9. Groupe PULS.)
- Vous devez être connecté pour répondre à ce sujet.
› Forums › AmigaOS, MorphOS et AROS › Général › ChatGPT