Hyperion sort un Kick/WB 3.1
-
Pour dire que l’architecture x86 ou x64 est mieux qu’une architecture 680×0, il faudrait les mettre a frequence egale XD, soit 8mhz, et on rigolerait
Non, justement, cette manière de voire est hors de propos, c’est ce que je me tue à expliquer. Si le 68k existait en dual core et à 2.5 Ghz, peut être bien qu’il serait plus performant qu’un i7. Ou peut être bien que l’architecture n’aurait pas pu être adaptée tel quel, Ou peut-être bien que Motorola aurait virtualisé le jeu d’instruction. Bref, si ma tante en avait, ce serait mon oncle. Vous pouvez faire de l’onnanisme pendant toute votre vie sur ce qu’aurait pu être un super 68k aux normes actuelles, mais la réalité c’est que le x86 a évolué et est devenu très performant, et le 68k pas. On ne ratrappe pas 25 ans de stagnation comme ça. Le 68080 est un excellent début et est très prométeur, mais il faudra encore beaucoup de chemin pour arriver aux standards actuels.
Donc je pense que l’architecture x86/x64 est moins bien, mais a 3 voir 4 ou 4.5Ghz, avec 4x ou 8x plus de core… avec de la ddr3, du sata, etc, forcement, la ca dechire tout.
tu dis « forcement » comme si tu occultais les 25 ans d’évolution qui ont permit d’avoir justement de la DDR3 et du multicore. Si c’était si simple de coller de la DDR3 et du multicore sur un 68k, je pense que l’on aurait pas eu besoin d’autant de temps pour y arriver, non ?
Je suis assez d’accord pour dire que mac ou pc, c’est kif kif niveau materiel. Sauf que pour reparer un imac, tu me diras comment faire… faut demonter la dalle, et pour trouver des pieces d’occasion … ben c’est applestore, ou vampiriser un autre mac.
mais quel est le rapport entre la réparabilité d’une machine et l’architecture matériel qui l’anime ? On est en plein délire là, ça part dans tout les sens….
Pour les pc, windows 10 a mis beaucoup de monde d’accord. si l’os est gratuit, c’est l’utilisateur le produit.
Ce n’est pas l’expérience que nous avons dans la société pour laquelle je travaille (commerce de détail, équivalent à Darty chez vous). Les gens se pleignent beaucoup des changements de paradigmes introduits par Microsoft, ils ne s’y retrouvent plus.
J’ai eu des macs, des pcs, des hackintosh, OSX est un tres bon OS. Mais lorsqu’on aime l’amiga, on veut le meilleur pour l’amiga. Voir des X5000 ou X1000 ou des x1222, ben c’est pas forcement ce qu’on attendait.
Encore une fois, tu mélange le moderne (pc, mac, hackintosh) avec l’Amiga. C’est compréhensible, étant donné que l’Amiga NG a été présenté comme un compétiteur sérieux dans l’offre actuelle, mais la réalité est que l’Amiga est et restera totallement à la ramasse par rapport au solutions actuelles, tout simplement parce que l’on ne ratrappe pas 25 ans d’évolution avec deux programmeurs et demi et du hard custom.
étant donné que l’Amiga NG a été présenté comme un compétiteur sérieux dans l’offre actuelle
Il faut quand même être sacrément entamé pour ne serait-ce qu’imaginer que c’est le cas. A la limite, en faire la pub comme tel, c’est de la tromperie.
Cela dit, ça n’empêche en rien d’y trouver un intérêt.« Les cons ça ose tout, c’est même à ça qu’on les reconnaît » (Michel Audiard)
Ouaip, l’Amiga restera à la ramasse c’est sûr. Bicoz il n’a pas vocation à remplacer ce qui existe déjà.
En revanche, il y a le marché vintage qui se déploie dans tous les domaines. Et on est en plein dans l’époque Amiga en ce moment, pour ce qui est de l’informatique. Donc, s’il y a quelque chose à faire aujourd’hui, c’est plutôt repartir sur les bases d’il y a 25 ans en remettant la techno un peu au goût du jour (les fpga arcade et vampire sont dans les rails).
On peut donc imaginer une machine standalone qui soit compatible avec ce qu’on a connu, tout en lui rajoutant une nouvelle facette plus moderne, du genre USB, SATA, ethernet, etc. Mais si on veut garder un pied dans le vintage (avoir la vintage touch), il faut garder le lecteur de disquette.
Les FPGA ayant la cote, j’en vois bien 2 ou 3 sur une carte mère, avec des ports pour les exploiter. Ca offrirait de nouvelles ouvertures qui n’existent sur aucune solution actuelle en natif.
Ca me fait penser à un vieil article ANews sur « l’amiga et la nasa ». On y lisait que la NASA avait opté pour l’amiga car ils en possédaient toutes les documentations. Ils pouvaient créer des extensions customs, etc. Donc, une machine standalone avec du FPGA bonus pourrait offrir ce genre de capacité.
Pourquoi avoir un 68000 double core a 2.5 giga?
alors qu’un 68000 bourrer a coté de DSP serais plus performant qu’un 68000 a 2.5 giga
je veux une machine vintage améliorer et très bien optimiser tout simplement.
si certain veule un machine a 2.5 gigahz on n’ira pas moins et ça coûterais très cher de fabriquer un tel processeur la on a des FPGA tout prés a reprogrammer dans tel et tel fonction suffis d’en placer 4 ou 5 plus le processeur et un bonne mémoire rapide adapter« Il ne faut jamais attribuer à la malveillance ce qu’on peut expliquer par l’incompétence.
Vu la bande de margoulins qui dirigeaient Commodore, mon opinion est faite. »
En ce qui concerne Commodore, ce n’est pas de la malveillance, ni de l’incompétence, ce n’est même pas un complot tellement c’est cousu de fil blanc, c’est simplement une énorme différence d’intérets.
D’un côté les ingénieurs et les utilisateurs : ils souhaitent faire perdurer l’amiga et ils ont tout fait pour.
N’oublions pas que Jay Miner s’est barré rapidement aprés la sortie du 1000, car il avait compris assez tôt que rien de bon ne pourrait sortir de Commodore et que sont temps et son intelligence serait plus utile dans la recherche pour le coeur humain. D’un point de vue humaniste, lâcher l’amiga était la meilleure décision qu’il pouvait prendre.
De l’autre les dirigeants :
Si on regarde bien ce qu’on fait Irvin Gould et Mehdi Ali, c’était trés cohérent et compétent. Leur but était simple, et il était le même que la plupart des investisseurs dans le marché de l’informatique des années 80/90 : gagner un maximum d’argent en un minimum de temps en exploitant au mieux une technologie, et se casser le plus vite possible avant que le souflet ne retombe.
Ce modèle perdure encore et il est la base du capitalisme technologique pour les petits acteurs : il y a une technologie, je crée une rupture en en créant une meilleure, j’empoche l’argent en attendant qu’une autre technologie vienne la supplanter. Mes revenus vont suivre une courbe ascendante, et je retire mes billes au bon moment juste après l’amorce de la déscente. Pour réinvestir dans une autre technologie qui est en train de monter. Je ne réinvesti jamais dans la recherche dans ma propre boîte (trop long, trop de pertes), mais je place mon argent, dans d’autres boîtes d’autres technologies, même si elles menacent à court terme mes premiers intérets. Dans ce monde on ne cherche pas à faire avancer l’humain et la recherche on cherche uniquement à maximiser les profits. Qu’importe s’il s’agit de vendre des ordinateurs, des voitures, ou que sait je.
Pour les gros genre intel, microsoft, la stratégie est différente, on vise le profit à grande échelle sur la durée. Pour que le public continue à acheter, on écrème les progrès technologiques en les introduisant au compte goûte et on emballe le tout dans une bonne dose de publicité et de marketing.
Cela explique pourquoi vous trouvez les pcs nuls encore aujourd’hui. L’intéret n’est pas de faire les meilleurs pc, mais de faire des pcs juste un peu moins pires que les précédents. Chez microsoft on va jusqu’à saboter une version sur deux, puisque le marché est relativement captif.
Ca entraine des sous phénomènes assez rigolos : une base de registre et un système de fichier qui se fragmente. Alors que tout le monde dans l’informatique sais que c’est exactement ce qu’il ne faut pas faire. Eux-même le savent, ils pourraient faire beaucoup mieux, mais ils ne changeront ça que si leur profits sont menacés.
On a aussi les processeurs bridés d’intel, ou plus récemment les voitures bridées. On voit bien que les intérêts financiers, et les intérets du public divergent.
Il faut savoir que Commodore avait une épée de Damoclès sur la tête. Ils allaient être condamné par les lois environnementales américaines, à cause de l’usine Mos, qui jusque là s’étaient contenté de déverser les résidus extrêmement polluants dans l’environnement avoisinant. Le but était donc de planter la boîte pour ne pas avoir a payer la note aussi salée que les cacahuètes de l’apéro de nos chers compères.
Évidemment les conséquences sont désastreuses pour les utilisateurs, les ingénieurs, les populations voisines et et l’environnement. Entre autre : les technologies sont perdues, les masques pour fabriquer les processeurs ont été perdus dans l’usine mos, et je suppose que c’est le contribuable américain qui a payé la dépollution du site.
Enorme
Un fix pour le Workbench 3.1 (40.43)
http://www.hyperion-entertainment.biz/
25ans n’ont pas suffit.
Changes:
FIXED: The Workbench disk image was not bootable
FIXED: The installation script could wrongly copy the contents of the Install disk into FONTS:moi j’aurai aimé une nouvelle rom 3.1 qui j’ai les mode gfx (picasso/CybGFX) dans l’early-startup, un mini pile usb incorporé et surtout mais ça, sa n’a rien a voir, mettre a jour le bios de ma carte pour prendre des disques dures de plus grande capacités.
https://www.youtube.com/@sayasupa
Est-ce que le nouveau-modo-super-motivé aurait 2 minutes pour corriger la faute de frappe dans le titre de la thread ? 😀
C’est Hyperion, et non HyperSion… :]Bisous.
- Vous devez être connecté pour répondre à ce sujet.
› Forums › AmigaOS, MorphOS et AROS › Général › Hyperion sort un Kick/WB 3.1