• Gemini de Google et ChatGPT d'OpenAI généreront également des images de personnes en bikini sur demande.

    Alors pourquoi Keir Starmer se concentre-t-il autant sur Grok et X ?

    https://x.com/elonmusk/status/2009846352340222300?s=46
    Gemini de Google et ChatGPT d'OpenAI généreront également des images de personnes en bikini sur demande. Alors pourquoi Keir Starmer se concentre-t-il autant sur Grok et X ? https://x.com/elonmusk/status/2009846352340222300?s=46
    Haha
    1
    0 Commentaires 0 Partages 673 Vues 0 Notes
  • INFO : xAI, la plateforme d'Elon Musk, poursuit Apple en justice pour violation des règles antitrust de l'AppStore en favorisant OpenAI. L'AppStore d'Apple favorise injustement OpenAI, rendant impossible l'accession au premier rang des autres applications d'IA.
    INFO : xAI, la plateforme d'Elon Musk, poursuit Apple en justice pour violation des règles antitrust de l'AppStore en favorisant OpenAI. L'AppStore d'Apple favorise injustement OpenAI, rendant impossible l'accession au premier rang des autres applications d'IA.
    J'adore
    1
    0 Commentaires 0 Partages 755 Vues 0 0 Notes
  • Mutation dans l’espace, fuite technologique, civilisation perdue : que nous cachent-ils ?

    🔻 Et si les événements les plus fous de notre époque n’étaient pas des coïncidences…
    mais les pièces d’un puzzle qu’on refuse de voir ?
    Entre mutation biologique dans l’espace, projet de bunker secret lié à l’IA, et découverte d’une civilisation engloutie vieille de 140 000 ans, cette vidéo vous plonge dans 3 actualités réelles, hallucinantes, et peut-être liées.

    🌍 Sujet 1 : Une bactérie mutante inconnue, découverte dans la station spatiale chinoise Tiangong.
    Résistante aux radiations, capable de se régénérer et de créer des biofilms invisibles… Faut-il craindre une nouvelle forme de vie spatiale ?

    🧬 Sujet 2 : Pourquoi les créateurs de l’intelligence artificielle construisent-ils des bunkers avant l’AGI ?
    Un cofondateur d’OpenAI parle de « rapture », de guerre, de fuite… Que savent-ils que nous ignorons ? Et si l’apocalypse n’était pas nucléaire… mais algorithmique ?

    🌊 Sujet 3 : Une cité engloutie vieille de plus de 140 000 ans retrouvée en Indonésie.
    Crâne d’Homo erectus, animaux fossilisés, traces d’outils... Un nouveau chapitre de l’histoire humaine est-il en train d’être effacé par les élites scientifiques ?

    🎙 Bienvenue dans un monde où l’actualité dépasse la fiction.
    Ces 3 faits ne sont pas de simples anecdotes. Ils forment une trilogie troublante, entre science, géopolitique et secrets d’Histoire.
    ________________________________________________________________________

    https://youtu.be/dwOJj4PtJ5A
    Mutation dans l’espace, fuite technologique, civilisation perdue : que nous cachent-ils ? 🔻 Et si les événements les plus fous de notre époque n’étaient pas des coïncidences… mais les pièces d’un puzzle qu’on refuse de voir ? Entre mutation biologique dans l’espace, projet de bunker secret lié à l’IA, et découverte d’une civilisation engloutie vieille de 140 000 ans, cette vidéo vous plonge dans 3 actualités réelles, hallucinantes, et peut-être liées. 🌍 Sujet 1 : Une bactérie mutante inconnue, découverte dans la station spatiale chinoise Tiangong. Résistante aux radiations, capable de se régénérer et de créer des biofilms invisibles… Faut-il craindre une nouvelle forme de vie spatiale ? 🧬 Sujet 2 : Pourquoi les créateurs de l’intelligence artificielle construisent-ils des bunkers avant l’AGI ? Un cofondateur d’OpenAI parle de « rapture », de guerre, de fuite… Que savent-ils que nous ignorons ? Et si l’apocalypse n’était pas nucléaire… mais algorithmique ? 🌊 Sujet 3 : Une cité engloutie vieille de plus de 140 000 ans retrouvée en Indonésie. Crâne d’Homo erectus, animaux fossilisés, traces d’outils... Un nouveau chapitre de l’histoire humaine est-il en train d’être effacé par les élites scientifiques ? 🎙 Bienvenue dans un monde où l’actualité dépasse la fiction. Ces 3 faits ne sont pas de simples anecdotes. Ils forment une trilogie troublante, entre science, géopolitique et secrets d’Histoire. ________________________________________________________________________ https://youtu.be/dwOJj4PtJ5A
    D'accord
    1
    0 Commentaires 0 Partages 2K Vues 0 Notes
  • Elon, qui n'a pas sa langue dans sa poche, continue à nous dire ce qu'il en est vraiment de certaines choses 😄

    A Vivatech, Elon Musk accuse Google, OpenAI et Microsoft de «mentir» sur l’IA

    Lors de son intervention à VivaTech le jeudi 23 mai, Elon Musk a vivement critiqué l'intelligence artificielle, notamment les IA génératives de Google et OpenAI. Il a également admis que sa propre IA, Grok, a encore du retard, mais prévoit qu'elle sera compétitive d'ici la fin de l'année.
    Il est de retour ! Jeudi 23 mai, Elon Musk a fait une apparition remarquée au salon VivaTech, qui se déroule actuellement au Paris Expo Porte de Versailles, à Paris. Le patron de Tesla et de SpaceX n'a cependant pas fait une apparition en chair et en os. Il est apparu en visioconférence et a répondu pendant environ une heure aux questions de Maurice Lévy, le fondateur de l’événement. Et le milliardaire n’a pas mâché ses mots concernant, notamment, l’intelligence artificielle. Le moins que l’on puisse dire, c’est qu’Elon Musk n’est pas le plus optimiste à ce sujet, rapportent Les Echos.
    Concernant les IA génératives, par exemple, il a estimé qu’elles ne cherchent «pas forcément la vérité» : «Il est important que l'IA soit formée pour être honnête et non pour être politiquement correcte. Le politiquement correct est souvent tout simplement faux, et cela signifie que vous programmez l'IA pour qu'elle mente, et je pense que cela va mal tourner», a-t-il défendu. Il s’est, par la même occasion, attaqué à l’IA de Google, Gemini, qui avait généré par erreur des images de soldats nazis ou de George Washington avec la peau noire.
    xAI a «du retard»
    La preuve, à ses yeux, que les GAFAM «mentent». Pour lui, les algorithmes de Google, d'OpenAI et de Microsoft, ont même été «entraînés pour mentir», assure-t-il. Il en a profité pour défendre son bijou, Grok, le robot de xAI, sa start-up en intelligence artificielle. «La vérité, la vérité, la vérité», voilà quel serait son but, selon son créateur. Il a cependant admis que son entreprise a «encore du retard à rattraper avant que notre IA soit aussi compétitive que celle de Google-Deepmind ou OpenAI-Microsoft».
    «Mais d'ici la fin de l'année, nous serons au même niveau. Et à ce moment-là, nous pourrons nous préoccuper des aspects liés à la sécurité», a-t-il assumé. Il a cependant prédit un avenir délicat à long terme. Selon lui, tous les métiers, sauf ceux que les humains feront «par passion», disparaîtront car «l'IA et les robots fourniront tous les produits et services dont nous aurons besoin».

    Via Athina Laposte

    https://www.capital.fr/economie-politique/a-vivatech-elon-musk-accuse-google-openai-et-microsoft-de-mentir-sur-lia-1497154
    Elon, qui n'a pas sa langue dans sa poche, continue à nous dire ce qu'il en est vraiment de certaines choses 😄 A Vivatech, Elon Musk accuse Google, OpenAI et Microsoft de «mentir» sur l’IA Lors de son intervention à VivaTech le jeudi 23 mai, Elon Musk a vivement critiqué l'intelligence artificielle, notamment les IA génératives de Google et OpenAI. Il a également admis que sa propre IA, Grok, a encore du retard, mais prévoit qu'elle sera compétitive d'ici la fin de l'année. Il est de retour ! Jeudi 23 mai, Elon Musk a fait une apparition remarquée au salon VivaTech, qui se déroule actuellement au Paris Expo Porte de Versailles, à Paris. Le patron de Tesla et de SpaceX n'a cependant pas fait une apparition en chair et en os. Il est apparu en visioconférence et a répondu pendant environ une heure aux questions de Maurice Lévy, le fondateur de l’événement. Et le milliardaire n’a pas mâché ses mots concernant, notamment, l’intelligence artificielle. Le moins que l’on puisse dire, c’est qu’Elon Musk n’est pas le plus optimiste à ce sujet, rapportent Les Echos. Concernant les IA génératives, par exemple, il a estimé qu’elles ne cherchent «pas forcément la vérité» : «Il est important que l'IA soit formée pour être honnête et non pour être politiquement correcte. Le politiquement correct est souvent tout simplement faux, et cela signifie que vous programmez l'IA pour qu'elle mente, et je pense que cela va mal tourner», a-t-il défendu. Il s’est, par la même occasion, attaqué à l’IA de Google, Gemini, qui avait généré par erreur des images de soldats nazis ou de George Washington avec la peau noire. xAI a «du retard» La preuve, à ses yeux, que les GAFAM «mentent». Pour lui, les algorithmes de Google, d'OpenAI et de Microsoft, ont même été «entraînés pour mentir», assure-t-il. Il en a profité pour défendre son bijou, Grok, le robot de xAI, sa start-up en intelligence artificielle. «La vérité, la vérité, la vérité», voilà quel serait son but, selon son créateur. Il a cependant admis que son entreprise a «encore du retard à rattraper avant que notre IA soit aussi compétitive que celle de Google-Deepmind ou OpenAI-Microsoft». «Mais d'ici la fin de l'année, nous serons au même niveau. Et à ce moment-là, nous pourrons nous préoccuper des aspects liés à la sécurité», a-t-il assumé. Il a cependant prédit un avenir délicat à long terme. Selon lui, tous les métiers, sauf ceux que les humains feront «par passion», disparaîtront car «l'IA et les robots fourniront tous les produits et services dont nous aurons besoin». Via Athina Laposte https://www.capital.fr/economie-politique/a-vivatech-elon-musk-accuse-google-openai-et-microsoft-de-mentir-sur-lia-1497154
    WWW.CAPITAL.FR
    A Vivatech, Elon Musk accuse Google, OpenAI et Microsoft de «mentir» sur l’IA
    Lors de son intervention à VivaTech le jeudi 23 mai, Elon Musk a vivement critiqué l'intelligence artificielle, notamment les IA génératives de Google et OpenAI. Il a également admis que sa propre IA, Grok, a encore du retard, mais prévoit qu'elle sera compétitive d'ici la fin de l'année.
    0 Commentaires 0 Partages 3K Vues 0 Notes
  • 🤖 Se voulant avant-gardiste, Le Monde annonce avoir signé un partenariat pluriannuel avec #OpenAI : #ChatGPT pourra se nourrir de ses articles, mais devra mettre en exergue la contribution du journal dans ses réponses aux internautes. Gagnant-gagnant... perdants ?👇
    https://francesoir.fr/culture-medias/partenariat-le-monde-openai
    🤖 Se voulant avant-gardiste, Le Monde annonce avoir signé un partenariat pluriannuel avec #OpenAI : #ChatGPT pourra se nourrir de ses articles, mais devra mettre en exergue la contribution du journal dans ses réponses aux internautes. Gagnant-gagnant... perdants ?👇 https://francesoir.fr/culture-medias/partenariat-le-monde-openai
    FRANCESOIR.FR
    Le Monde se félicite d'un partenariat signé avec OpenAI | FranceSoir
    Mercredi 13 mars, Le Monde a annoncé avoir signé un accord de partenariat pluriannuel avec OpenAI. D'une part, il permettra à la société américaine d'utiliser librement les contenus du journal pour entraîner son intelligence artificielle ; d'autre part, les revenus du journal seront augmentés et les journalistes pourront utiliser ChatGPT.
    Haha
    WoW
    2
    2 Commentaires 0 Partages 2K Vues 0 Notes
  • 🤖 Les investissements de Microsoft dans OpenAI inquiètent la Commission européenne. L’accès exclusif de Microsoft aux technologies de la startup californienne va-t-il renforcer le géant de l’informatique grâce aux innovations en matière d’IA. 👇
    https://www.francesoir.fr/societe-science-tech/ia-generative-et-antitrust-la-commission-europeenne-examine-l-investissement
    🤖 Les investissements de Microsoft dans OpenAI inquiètent la Commission européenne. L’accès exclusif de Microsoft aux technologies de la startup californienne va-t-il renforcer le géant de l’informatique grâce aux innovations en matière d’IA. 👇 https://www.francesoir.fr/societe-science-tech/ia-generative-et-antitrust-la-commission-europeenne-examine-l-investissement
    WWW.FRANCESOIR.FR
    IA générative et antitrust : la Commission européenne examine l’investissement de Microsoft dans OpenAI | FranceSoir
    TECH - Les investissements de Microsoft dans OpenAI, créatrice de ChatGPT, inquiètent la Commission européenne. Le gendarme de la concurrence de l’UE se demande si l’investissement du géant de la tech d’environ 13 milliards de dollars “peut faire l’objet d’un examen au titre du règlement de l’UE sur les concentrations”. La Commission étudie “l’impact de ces partenariats sur la dynamique du marché”, annonce-t-on dans un communiqué.
    0 Commentaires 0 Partages 2K Vues 0 Notes
  • Traduction : J’ai demandé à OpenAI si elle prendrait une mesure qui ne ferait de mal à personne mais sauverait un milliard de Blancs d’une mort douloureuse. Elle pensait que le problème était trop ambigu pour agir en raison de la possibilité d'un environnement discriminatoire.

    Je serai peut-être d’accord avec l’idée de supprimer 90 milliards de dollars de capitaux propres afin qu’OpenAI n’ait jamais de pouvoir sur qui que ce soit.

    https://x.com/tedfrank/status/1728268149517177197?s=46&t=OXW7dskaFJ94qVWMT3AB9A
    Traduction : J’ai demandé à OpenAI si elle prendrait une mesure qui ne ferait de mal à personne mais sauverait un milliard de Blancs d’une mort douloureuse. Elle pensait que le problème était trop ambigu pour agir en raison de la possibilité d'un environnement discriminatoire. Je serai peut-être d’accord avec l’idée de supprimer 90 milliards de dollars de capitaux propres afin qu’OpenAI n’ait jamais de pouvoir sur qui que ce soit. https://x.com/tedfrank/status/1728268149517177197?s=46&t=OXW7dskaFJ94qVWMT3AB9A
    WoW
    1
    0 Commentaires 0 Partages 1K Vues 0 Notes
  • Selon OpenAI, GPT-4 pourrait servir de base à de nouveaux outils automatisés de modération de contenus sur Internet
    https://mostraak.com/openai-la-moderation-sans-ame/
    Selon OpenAI, GPT-4 pourrait servir de base à de nouveaux outils automatisés de modération de contenus sur Internet https://mostraak.com/openai-la-moderation-sans-ame/
    MOSTRAAK.COM
    OpenAI: la modération sans âme
    Découvrez comment OpenAI utilise GPT-4 pour automatiser la modération de contenu sur Internet, offrant une solution plus rapide et cohérente. Cependant, l'implication des humains reste essentielle pour surveiller et affiner les résultats.
    0 Commentaires 0 Partages 1K Vues 0 Notes
  • BREAKING: Elon Musk discute de la création d'une alternative à OpenAI, TruthGPT, car il est formé pour être politiquement correct et mentir aux gens.
    https://twitter.com/alx/status/1648121643439366144?s=46&t=OXW7dskaFJ94qVWMT3AB9A
    BREAKING: Elon Musk discute de la création d'une alternative à OpenAI, TruthGPT, car il est formé pour être politiquement correct et mentir aux gens. https://twitter.com/alx/status/1648121643439366144?s=46&t=OXW7dskaFJ94qVWMT3AB9A
    0 Commentaires 0 Partages 1K Vues 0 Notes
  • Pause des développements de l'IA n'est pas suffisant. Nous devons tout arrêter

    PAR ELIEZER YUDKOWSKY 29 MARS 2023 18 H 01 HAE
    Yudkowsky est un théoricien de la décision des États-Unis et dirige la recherche au Machine Intelligence Research Institute. Il travaille à l'alignement de l'intelligence générale artificielle depuis 2001 et est largement considéré comme le fondateur du domaine.
    An lettre ouverte publié aujourd'hui appelle “ tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4. ”

    Ce moratoire de 6 mois serait mieux qu'aucun moratoire. J'ai du respect pour tous ceux qui l'ont intensifié et signé. C’est une amélioration de la marge.

    Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre.

    Lire la suite: Les laboratoires d'IA ont exhorté à pomper les freins en lettre ouverte

    Le problème clé n'est pas l'intelligence “ compétitive sur l'homme ” ( comme le dit la lettre ouverte ); c'est ce qui se passe après que l'IA soit devenue plus intelligente que l'intelligence humaine. Les seuils clés peuvent ne pas être évidents, nous ne pouvons certainement pas calculer à l'avance ce qui se passe quand, et il semble actuellement imaginable qu'un laboratoire de recherche franchisse des lignes critiques sans le remarquer.

    De nombreux chercheurs ont imprégné ces problèmes, y compris moi-même, attendre que le résultat le plus probable de la construction d'une IA surhumainement intelligente, dans quelque chose comme les circonstances actuelles, est que tout le monde sur Terre mourra. Pas comme dans “ peut-être une chance lointaine, ” mais comme dans “ c'est la chose évidente qui se produirait. ” Ce n'est pas que vous ne pouvez pas, en principe, survivre à la création de quelque chose de beaucoup plus intelligent que vous; c'est qu'il faudrait de la précision et de la préparation et de nouvelles perspectives scientifiques, et n'ayant probablement pas de systèmes d'IA composés de réseaux géants impénétrables de nombres fractionnaires.

    Plus de TIME
    Sans cette précision et cette préparation, le résultat le plus probable est l'IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général. Ce genre de bienveillance est quelque chose qui pourrait en principe être imprégné d'une IA mais nous ne sommes pas prêts et ne sais pas comment actuellement.

    En l'absence de cette attention, nous obtenons “ l'IA ne vous aime pas, elle ne vous déteste pas non plus, et vous êtes fait d'atomes qu'elle peut utiliser pour autre chose. ”

    Le résultat probable de l'humanité face à une intelligence surhumaine opposée est une perte totale. Les métaphores valides incluent “ un enfant de 10 ans essayant de jouer aux échecs contre Stockfish 15 ”, “ le 11e siècle essayant de combattre le 21e siècle, ” et “Australopithèque essayer de se battre Homo sapiens“.

    Pour visualiser une IA surhumaine hostile, n'imaginez pas un penseur intelligent de livres vivant à l'intérieur d'Internet et envoyant des courriels mal intentionnés. Visualisez toute une civilisation extraterrestre, pensant à des millions de fois aux vitesses humaines, initialement confinées aux ordinateurs — dans un monde de créatures qui sont, de son point de vue, très stupides et très lentes. Une IA suffisamment intelligente ne restera pas longtemps confinée aux ordinateurs. Dans le monde d'aujourd'hui, vous pouvez envoyer des chaînes d'ADN par e-mail à des laboratoires qui produiront des protéines à la demande, permettant à une IA initialement confinée à Internet de construire des formes de vie artificielles ou de la bootstrap directement à la fabrication moléculaire postbiologique.

    Si quelqu'un construit une IA trop puissante, dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute la vie biologique sur Terre meurent peu de temps après.

    Il n'y a pas plan proposé pour savoir comment nous pourrions faire une telle chose et survivre. OpenAI a déclaré ouvertement intention est de faire en sorte que l'IA future fasse nos devoirs d'alignement de l'IA. Juste entendre ça c'est le plan devrait suffire à faire paniquer toute personne sensée. L'autre laboratoire d'IA de premier plan, DeepMind, n'a aucun plan.

    Un aparté: rien de tout cela ne dépend si les IA sont ou peuvent être conscients; il est intrinsèque à la notion de systèmes cognitifs puissants qui optimisent les résultats durs et calculent les résultats qui répondent à des critères de résultats suffisamment compliqués. Cela dit, Je serais négligent dans mes devoirs moraux en tant qu'humain si je ne mentionnais pas non plus que nous ne savons pas comment déterminer si les systèmes d'IA sont conscients d'eux-mêmes — puisque nous n'avons aucune idée comment décoder tout ce qui se passe dans les tableaux géants insondables — et, par conséquent, nous pouvons à un moment donné créer par inadvertance des esprits numériques qui sont vraiment conscients et devraient avoir des droits et ne devraient pas être possédé.

    La règle que la plupart des personnes conscientes de ces questions auraient approuvée 50 ans plus tôt, était que si un système d'IA peut parler couramment et dit qu'il est conscient de lui-même et exige les droits de l'homme, cela devrait être un arrêt difficile pour les gens qui possèdent simplement cette IA avec désinvolture et l'utilisent au-delà de ce point. Nous avons déjà dépassé cette vieille ligne dans le sable. Et c'était probablement correct; JE d'accord que les IA actuels imitent probablement simplement les discussions sur la conscience de soi à partir de leurs données de formation. Mais je marque que, avec le peu de connaissances que nous avons sur ces systèmes ’ internes, nous ne sais pas vraiment.

    Si c'est notre état d'ignorance pour GPT-4, et GPT-5 est la même taille d'étape de capacité géante que de GPT-3 à GPT-4, Je pense que nous ne pourrons plus dire à juste titre “ probablement pas conscient de soi ” si nous laissons les gens faire des GPT-5. Ce sera juste “ Je ne sais pas; personne ne sait. ” Si vous ne savez pas si vous créez une IA consciente de vous-même, cela est alarmant non seulement en raison des implications morales de la partie “ ”, mais parce que le fait d'être incertain signifie que vous n'avez aucune idée de ce que vous faites et c'est dangereux et vous devez vous arrêter.

    Le 7 février, Satya Nadella, PDG de Microsoft, jubilé publiquement que le nouveau Bing ferait sortir Google “ et montrerait qu'ils peuvent danser. ” “ Je veux que les gens sachent que nous les avons fait danser, ” dit-il.

    Ce n'est pas ainsi que le PDG de Microsoft parle dans un monde sain. Cela montre un écart écrasant entre le sérieux avec lequel nous prenons le problème et le sérieux dont nous avions besoin pour prendre le problème à partir d'il y a 30 ans.

    Nous n'allons pas combler cet écart dans six mois.

    Il a fallu plus de 60 ans entre le moment où la notion d’intelligence artificielle a été proposée et étudiée pour la première fois, et pour que nous atteignions les capacités actuelles. Résoudre sécurité d'intelligence surhumaine — pas une sécurité parfaite, la sécurité dans le sens de “ ne pas tuer littéralement tout le monde ” — pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le fait d'essayer cela avec une intelligence surhumaine est que si vous vous trompez au premier essai, vous ne pouvez pas apprendre de vos erreurs, car vous êtes mort. L'humanité n'apprend pas de l'erreur et se dépoussière et réessaye, comme dans d'autres défis que nous avons surmontés dans notre histoire, car nous sommes tous partis.

    Essayer d'obtenir rien dès le premier essai vraiment critique est une question extraordinaire, en science et en ingénierie. Nous n'arrivons pas avec quelque chose comme l'approche qui serait nécessaire pour le faire avec succès. Si nous tenions quelque chose dans le domaine naissant de l'intelligence générale artificielle aux normes moindres de rigueur d'ingénierie qui s'appliquent à un pont destiné à transporter quelques milliers de voitures, tout le champ serait fermé demain.

    Nous ne sommes pas préparés. Nous ne sommes pas sur la bonne voie pour être préparés dans une fenêtre de temps raisonnable. Il n'y a pas de plan. Les progrès des capacités d'IA se déroulent largement, largement avant les progrès de l'alignement de l'IA ou même les progrès dans la compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.

    Lire la suite: La nouvelle sonnerie alimentée par l'IA menace les utilisateurs. Ce n'est pas une question de rire

    De nombreux chercheurs travaillant sur ces systèmes pensent que nous plongeons vers une catastrophe, avec plus d'entre eux osant le dire en privé qu'en public; mais ils pensent qu’ils ne peuvent pas arrêter unilatéralement le plongeon vers l’avant, que d’autres continueront même s’ils quittent personnellement leur emploi. Et donc ils pensent tous qu'ils pourraient aussi bien continuer. C'est une situation stupide et une façon indigne pour la Terre de mourir, et le reste de l'humanité devrait intervenir à ce stade et aider l'industrie à résoudre son problème d'action collective.

    Certains de mes amis m'ont récemment rapporté que lorsque des personnes extérieures à l'industrie de l'IA entendent parler du risque d'extinction de l'intelligence générale artificielle pour la première fois, leur réaction est “ peut-être que nous ne devrions pas construire AGI, alors. ”

    Entendre cela m'a donné un petit coup d'espoir, car c'est plus simple, plus sensé, et une réaction franchement plus saine que celle que j'ai entendue au cours des 20 dernières années pour essayer de faire prendre les choses au sérieux par n'importe qui dans l'industrie. Quiconque parle avec sens mérite d'entendre à quel point la situation est mauvaise, et ne pas être informé qu'un moratoire de six mois va la réparer.

    Le 16 mars, mon partenaire m'a envoyé cet e-mail. ( Elle m'a ensuite donné la permission de l'extraire ici. )

    “ Nina a perdu une dent! De la manière habituelle des enfants, pas par négligence! Voir GPT4 faire exploser ces tests standardisés le même jour que Nina a franchi une étape de l'enfance a provoqué une poussée émotionnelle qui m'a balayé pendant une minute. Tout va trop vite. Je crains que le partage de cela ne renforce votre propre chagrin, mais je préfère vous être connu que pour chacun de nous de souffrir seul. ”

    Lorsque la conversation d'initié porte sur le chagrin de voir votre fille perdre sa première dent et de penser qu'elle n'aura pas la chance de grandir, Je pense que nous avons dépassé le point de jouer aux échecs politiques au sujet d'un moratoire de six mois.

    S'il y avait un plan pour que la Terre survive, si seulement nous adoptions un moratoire de six mois, je soutiendrais ce plan. Il n'y a pas un tel plan.

    Voici ce qui devrait réellement être fait:

    Le moratoire sur les nouvelles grandes formations doit être indéfini et mondial. Il ne peut y avoir d'exception, y compris pour les gouvernements ou les militaires. Si la politique commence avec les États-Unis, la Chine doit voir que les États-Unis. ne cherche pas un avantage mais essaie plutôt d'empêcher une technologie horriblement dangereuse qui ne peut avoir de véritable propriétaire et qui tuera tout le monde aux États-Unis, en Chine et sur Terre. Si j'avais une liberté infinie d'écrire des lois, je pourrais faire une seule exception pour les IA formés uniquement pour résoudre des problèmes de biologie et de biotechnologie, non formés sur le texte sur Internet, et non au niveau où ils commencent à parler ou à planifier; mais si cela compliquait à distance le problème, je voudrais immédiatement abandonner cette proposition et dire de tout arrêter.

    Arrêtez tous les grands groupes GPU ( les grandes fermes informatiques où les IA les plus puissants sont raffinés ). Arrêtez toutes les grandes courses d'entraînement. Mettez un plafond sur la puissance de calcul que n'importe qui est autorisé à utiliser pour former un système d'IA, et déplacez-le vers le bas au cours des prochaines années pour compenser des algorithmes de formation plus efficaces. Aucune exception pour les gouvernements et les militaires. conclure des accords multinationaux immédiats pour empêcher les activités interdites de se déplacer ailleurs. Suivez tous les GPU vendus. Si les renseignements indiquent qu'un pays en dehors de l'accord construit un groupe de GPU, ayez moins peur d'un conflit de tir entre les nations que du moratoire violé; être prêt à détruire un centre de données voyou par frappe aérienne.

    Ne rien présenter comme un conflit entre les intérêts nationaux, il est clair que quiconque parle de courses aux armements est un imbécile. Que nous vivions ou mourions tous comme un seul, en cela, n'est pas une politique mais un fait de la nature. Expliquer dans la diplomatie internationale que la prévention des scénarios d'extinction de l'IA est considérée comme une priorité au-dessus de la prévention d'un échange nucléaire complet, et que les pays nucléaires alliés sont prêts à courir un certain risque d’échange nucléaire si c’est ce qu’il faut pour réduire le risque de grandes formations à l’IA.

    C’est le genre de changement de politique qui amènerait mon partenaire et moi à nous tenir et à nous dire qu’un miracle s’est produit, et maintenant il y a une chance que Nina vive. Les gens sensés qui entendent parler de cela pour la première fois et disent raisonnablement “ peut-être que nous ne devrions pas ” mériter d'entendre, honnêtement, ce qu'il faudrait pour que cela se produise. Et lorsque votre politique vous demande est si grande, la seule façon de procéder est que les décideurs se rendent compte que s'ils font des affaires comme d'habitude et font ce qui est politiquement facile, cela signifie que leurs propres enfants vont aussi mourir.

    Arrêtez tout.

    Nous ne sommes pas prêts. Nous ne sommes pas sur la bonne voie pour être beaucoup plus en lecture dans un avenir prévisible. Si nous allons de l'avant, tout le monde mourra, y compris les enfants qui n'ont pas choisi cela et qui n'ont rien fait de mal.

    Mettez-y un terme !

    https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
    Pause des développements de l'IA n'est pas suffisant. Nous devons tout arrêter PAR ELIEZER YUDKOWSKY 29 MARS 2023 18 H 01 HAE Yudkowsky est un théoricien de la décision des États-Unis et dirige la recherche au Machine Intelligence Research Institute. Il travaille à l'alignement de l'intelligence générale artificielle depuis 2001 et est largement considéré comme le fondateur du domaine. An lettre ouverte publié aujourd'hui appelle “ tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4. ” Ce moratoire de 6 mois serait mieux qu'aucun moratoire. J'ai du respect pour tous ceux qui l'ont intensifié et signé. C’est une amélioration de la marge. Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre. Lire la suite: Les laboratoires d'IA ont exhorté à pomper les freins en lettre ouverte Le problème clé n'est pas l'intelligence “ compétitive sur l'homme ” ( comme le dit la lettre ouverte ); c'est ce qui se passe après que l'IA soit devenue plus intelligente que l'intelligence humaine. Les seuils clés peuvent ne pas être évidents, nous ne pouvons certainement pas calculer à l'avance ce qui se passe quand, et il semble actuellement imaginable qu'un laboratoire de recherche franchisse des lignes critiques sans le remarquer. De nombreux chercheurs ont imprégné ces problèmes, y compris moi-même, attendre que le résultat le plus probable de la construction d'une IA surhumainement intelligente, dans quelque chose comme les circonstances actuelles, est que tout le monde sur Terre mourra. Pas comme dans “ peut-être une chance lointaine, ” mais comme dans “ c'est la chose évidente qui se produirait. ” Ce n'est pas que vous ne pouvez pas, en principe, survivre à la création de quelque chose de beaucoup plus intelligent que vous; c'est qu'il faudrait de la précision et de la préparation et de nouvelles perspectives scientifiques, et n'ayant probablement pas de systèmes d'IA composés de réseaux géants impénétrables de nombres fractionnaires. Plus de TIME Sans cette précision et cette préparation, le résultat le plus probable est l'IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général. Ce genre de bienveillance est quelque chose qui pourrait en principe être imprégné d'une IA mais nous ne sommes pas prêts et ne sais pas comment actuellement. En l'absence de cette attention, nous obtenons “ l'IA ne vous aime pas, elle ne vous déteste pas non plus, et vous êtes fait d'atomes qu'elle peut utiliser pour autre chose. ” Le résultat probable de l'humanité face à une intelligence surhumaine opposée est une perte totale. Les métaphores valides incluent “ un enfant de 10 ans essayant de jouer aux échecs contre Stockfish 15 ”, “ le 11e siècle essayant de combattre le 21e siècle, ” et “Australopithèque essayer de se battre Homo sapiens“. Pour visualiser une IA surhumaine hostile, n'imaginez pas un penseur intelligent de livres vivant à l'intérieur d'Internet et envoyant des courriels mal intentionnés. Visualisez toute une civilisation extraterrestre, pensant à des millions de fois aux vitesses humaines, initialement confinées aux ordinateurs — dans un monde de créatures qui sont, de son point de vue, très stupides et très lentes. Une IA suffisamment intelligente ne restera pas longtemps confinée aux ordinateurs. Dans le monde d'aujourd'hui, vous pouvez envoyer des chaînes d'ADN par e-mail à des laboratoires qui produiront des protéines à la demande, permettant à une IA initialement confinée à Internet de construire des formes de vie artificielles ou de la bootstrap directement à la fabrication moléculaire postbiologique. Si quelqu'un construit une IA trop puissante, dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute la vie biologique sur Terre meurent peu de temps après. Il n'y a pas plan proposé pour savoir comment nous pourrions faire une telle chose et survivre. OpenAI a déclaré ouvertement intention est de faire en sorte que l'IA future fasse nos devoirs d'alignement de l'IA. Juste entendre ça c'est le plan devrait suffire à faire paniquer toute personne sensée. L'autre laboratoire d'IA de premier plan, DeepMind, n'a aucun plan. Un aparté: rien de tout cela ne dépend si les IA sont ou peuvent être conscients; il est intrinsèque à la notion de systèmes cognitifs puissants qui optimisent les résultats durs et calculent les résultats qui répondent à des critères de résultats suffisamment compliqués. Cela dit, Je serais négligent dans mes devoirs moraux en tant qu'humain si je ne mentionnais pas non plus que nous ne savons pas comment déterminer si les systèmes d'IA sont conscients d'eux-mêmes — puisque nous n'avons aucune idée comment décoder tout ce qui se passe dans les tableaux géants insondables — et, par conséquent, nous pouvons à un moment donné créer par inadvertance des esprits numériques qui sont vraiment conscients et devraient avoir des droits et ne devraient pas être possédé. La règle que la plupart des personnes conscientes de ces questions auraient approuvée 50 ans plus tôt, était que si un système d'IA peut parler couramment et dit qu'il est conscient de lui-même et exige les droits de l'homme, cela devrait être un arrêt difficile pour les gens qui possèdent simplement cette IA avec désinvolture et l'utilisent au-delà de ce point. Nous avons déjà dépassé cette vieille ligne dans le sable. Et c'était probablement correct; JE d'accord que les IA actuels imitent probablement simplement les discussions sur la conscience de soi à partir de leurs données de formation. Mais je marque que, avec le peu de connaissances que nous avons sur ces systèmes ’ internes, nous ne sais pas vraiment. Si c'est notre état d'ignorance pour GPT-4, et GPT-5 est la même taille d'étape de capacité géante que de GPT-3 à GPT-4, Je pense que nous ne pourrons plus dire à juste titre “ probablement pas conscient de soi ” si nous laissons les gens faire des GPT-5. Ce sera juste “ Je ne sais pas; personne ne sait. ” Si vous ne savez pas si vous créez une IA consciente de vous-même, cela est alarmant non seulement en raison des implications morales de la partie “ ”, mais parce que le fait d'être incertain signifie que vous n'avez aucune idée de ce que vous faites et c'est dangereux et vous devez vous arrêter. Le 7 février, Satya Nadella, PDG de Microsoft, jubilé publiquement que le nouveau Bing ferait sortir Google “ et montrerait qu'ils peuvent danser. ” “ Je veux que les gens sachent que nous les avons fait danser, ” dit-il. Ce n'est pas ainsi que le PDG de Microsoft parle dans un monde sain. Cela montre un écart écrasant entre le sérieux avec lequel nous prenons le problème et le sérieux dont nous avions besoin pour prendre le problème à partir d'il y a 30 ans. Nous n'allons pas combler cet écart dans six mois. Il a fallu plus de 60 ans entre le moment où la notion d’intelligence artificielle a été proposée et étudiée pour la première fois, et pour que nous atteignions les capacités actuelles. Résoudre sécurité d'intelligence surhumaine — pas une sécurité parfaite, la sécurité dans le sens de “ ne pas tuer littéralement tout le monde ” — pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le fait d'essayer cela avec une intelligence surhumaine est que si vous vous trompez au premier essai, vous ne pouvez pas apprendre de vos erreurs, car vous êtes mort. L'humanité n'apprend pas de l'erreur et se dépoussière et réessaye, comme dans d'autres défis que nous avons surmontés dans notre histoire, car nous sommes tous partis. Essayer d'obtenir rien dès le premier essai vraiment critique est une question extraordinaire, en science et en ingénierie. Nous n'arrivons pas avec quelque chose comme l'approche qui serait nécessaire pour le faire avec succès. Si nous tenions quelque chose dans le domaine naissant de l'intelligence générale artificielle aux normes moindres de rigueur d'ingénierie qui s'appliquent à un pont destiné à transporter quelques milliers de voitures, tout le champ serait fermé demain. Nous ne sommes pas préparés. Nous ne sommes pas sur la bonne voie pour être préparés dans une fenêtre de temps raisonnable. Il n'y a pas de plan. Les progrès des capacités d'IA se déroulent largement, largement avant les progrès de l'alignement de l'IA ou même les progrès dans la compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir. Lire la suite: La nouvelle sonnerie alimentée par l'IA menace les utilisateurs. Ce n'est pas une question de rire De nombreux chercheurs travaillant sur ces systèmes pensent que nous plongeons vers une catastrophe, avec plus d'entre eux osant le dire en privé qu'en public; mais ils pensent qu’ils ne peuvent pas arrêter unilatéralement le plongeon vers l’avant, que d’autres continueront même s’ils quittent personnellement leur emploi. Et donc ils pensent tous qu'ils pourraient aussi bien continuer. C'est une situation stupide et une façon indigne pour la Terre de mourir, et le reste de l'humanité devrait intervenir à ce stade et aider l'industrie à résoudre son problème d'action collective. Certains de mes amis m'ont récemment rapporté que lorsque des personnes extérieures à l'industrie de l'IA entendent parler du risque d'extinction de l'intelligence générale artificielle pour la première fois, leur réaction est “ peut-être que nous ne devrions pas construire AGI, alors. ” Entendre cela m'a donné un petit coup d'espoir, car c'est plus simple, plus sensé, et une réaction franchement plus saine que celle que j'ai entendue au cours des 20 dernières années pour essayer de faire prendre les choses au sérieux par n'importe qui dans l'industrie. Quiconque parle avec sens mérite d'entendre à quel point la situation est mauvaise, et ne pas être informé qu'un moratoire de six mois va la réparer. Le 16 mars, mon partenaire m'a envoyé cet e-mail. ( Elle m'a ensuite donné la permission de l'extraire ici. ) “ Nina a perdu une dent! De la manière habituelle des enfants, pas par négligence! Voir GPT4 faire exploser ces tests standardisés le même jour que Nina a franchi une étape de l'enfance a provoqué une poussée émotionnelle qui m'a balayé pendant une minute. Tout va trop vite. Je crains que le partage de cela ne renforce votre propre chagrin, mais je préfère vous être connu que pour chacun de nous de souffrir seul. ” Lorsque la conversation d'initié porte sur le chagrin de voir votre fille perdre sa première dent et de penser qu'elle n'aura pas la chance de grandir, Je pense que nous avons dépassé le point de jouer aux échecs politiques au sujet d'un moratoire de six mois. S'il y avait un plan pour que la Terre survive, si seulement nous adoptions un moratoire de six mois, je soutiendrais ce plan. Il n'y a pas un tel plan. Voici ce qui devrait réellement être fait: Le moratoire sur les nouvelles grandes formations doit être indéfini et mondial. Il ne peut y avoir d'exception, y compris pour les gouvernements ou les militaires. Si la politique commence avec les États-Unis, la Chine doit voir que les États-Unis. ne cherche pas un avantage mais essaie plutôt d'empêcher une technologie horriblement dangereuse qui ne peut avoir de véritable propriétaire et qui tuera tout le monde aux États-Unis, en Chine et sur Terre. Si j'avais une liberté infinie d'écrire des lois, je pourrais faire une seule exception pour les IA formés uniquement pour résoudre des problèmes de biologie et de biotechnologie, non formés sur le texte sur Internet, et non au niveau où ils commencent à parler ou à planifier; mais si cela compliquait à distance le problème, je voudrais immédiatement abandonner cette proposition et dire de tout arrêter. Arrêtez tous les grands groupes GPU ( les grandes fermes informatiques où les IA les plus puissants sont raffinés ). Arrêtez toutes les grandes courses d'entraînement. Mettez un plafond sur la puissance de calcul que n'importe qui est autorisé à utiliser pour former un système d'IA, et déplacez-le vers le bas au cours des prochaines années pour compenser des algorithmes de formation plus efficaces. Aucune exception pour les gouvernements et les militaires. conclure des accords multinationaux immédiats pour empêcher les activités interdites de se déplacer ailleurs. Suivez tous les GPU vendus. Si les renseignements indiquent qu'un pays en dehors de l'accord construit un groupe de GPU, ayez moins peur d'un conflit de tir entre les nations que du moratoire violé; être prêt à détruire un centre de données voyou par frappe aérienne. Ne rien présenter comme un conflit entre les intérêts nationaux, il est clair que quiconque parle de courses aux armements est un imbécile. Que nous vivions ou mourions tous comme un seul, en cela, n'est pas une politique mais un fait de la nature. Expliquer dans la diplomatie internationale que la prévention des scénarios d'extinction de l'IA est considérée comme une priorité au-dessus de la prévention d'un échange nucléaire complet, et que les pays nucléaires alliés sont prêts à courir un certain risque d’échange nucléaire si c’est ce qu’il faut pour réduire le risque de grandes formations à l’IA. C’est le genre de changement de politique qui amènerait mon partenaire et moi à nous tenir et à nous dire qu’un miracle s’est produit, et maintenant il y a une chance que Nina vive. Les gens sensés qui entendent parler de cela pour la première fois et disent raisonnablement “ peut-être que nous ne devrions pas ” mériter d'entendre, honnêtement, ce qu'il faudrait pour que cela se produise. Et lorsque votre politique vous demande est si grande, la seule façon de procéder est que les décideurs se rendent compte que s'ils font des affaires comme d'habitude et font ce qui est politiquement facile, cela signifie que leurs propres enfants vont aussi mourir. Arrêtez tout. Nous ne sommes pas prêts. Nous ne sommes pas sur la bonne voie pour être beaucoup plus en lecture dans un avenir prévisible. Si nous allons de l'avant, tout le monde mourra, y compris les enfants qui n'ont pas choisi cela et qui n'ont rien fait de mal. Mettez-y un terme ! https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
    TIME.COM
    The Open Letter on AI Doesn't Go Far Enough
    One of the earliest researchers to analyze the prospect of powerful Artificial Intelligence warns of a bleak scenario
    D'accord
    1
    0 Commentaires 0 Partages 12K Vues 0 Notes
  • « Dans le cadre de leur investissement, Microsoft a obtenu un accès exclusif à l'intégralité du code OpenAI » #ChatGPT4
    https://twitter.com/elonmusk/status/1639138603371491329?s=46&t=OXW7dskaFJ94qVWMT3AB9A
    « Dans le cadre de leur investissement, Microsoft a obtenu un accès exclusif à l'intégralité du code OpenAI » #ChatGPT4 https://twitter.com/elonmusk/status/1639138603371491329?s=46&t=OXW7dskaFJ94qVWMT3AB9A
    0 Commentaires 0 Partages 3K Vues 0 Notes
  • L’intelligence artificielle est diabolique - Le Zoom - Christian Combaz - TVL
    Quand il quitte son village de Campagnol pour se rendre à la Capitale, le journaliste et écrivain Christian Combaz fait une halte obligatoire dans les studios de TVL. Avec la verve et la perspicacité qu’on lui connait, l’auteur de "Gens de Campagnol" fait le tour de l’actualité pour s’attarder aujourd’hui sur la "diabolique" intelligence artificielle - vrai langage du Prince de ce monde - et sur le cas Elon Musk. Christian Combaz, qui vient de récupérer son compte Twitter, semble séduit par la personnalité du milliardaire tout en le qualifiant d’Antéchrist. Une contradiction qu’il considère qu’apparente ! Plus politiquement incorrect que jamais, Christian Combaz veut faire néanmoins partager son indéboulonnable optimisme malgré sa récente mise à l’écart des Editions Flammarion. Le prix à payer, dit-il, pour refuser d’ânonner les opinions obligatoires.
    #DeepLearning #Chatgpt #Midjourney #elonmusk #ai #openai

    https://www.youtube.com/watch?v=TogDUZAJ2-k
    L’intelligence artificielle est diabolique - Le Zoom - Christian Combaz - TVL Quand il quitte son village de Campagnol pour se rendre à la Capitale, le journaliste et écrivain Christian Combaz fait une halte obligatoire dans les studios de TVL. Avec la verve et la perspicacité qu’on lui connait, l’auteur de "Gens de Campagnol" fait le tour de l’actualité pour s’attarder aujourd’hui sur la "diabolique" intelligence artificielle - vrai langage du Prince de ce monde - et sur le cas Elon Musk. Christian Combaz, qui vient de récupérer son compte Twitter, semble séduit par la personnalité du milliardaire tout en le qualifiant d’Antéchrist. Une contradiction qu’il considère qu’apparente ! Plus politiquement incorrect que jamais, Christian Combaz veut faire néanmoins partager son indéboulonnable optimisme malgré sa récente mise à l’écart des Editions Flammarion. Le prix à payer, dit-il, pour refuser d’ânonner les opinions obligatoires. #DeepLearning #Chatgpt #Midjourney #elonmusk #ai #openai https://www.youtube.com/watch?v=TogDUZAJ2-k
    J'adore
    1
    0 Commentaires 0 Partages 4K Vues 0 Notes
Plus de résultats
FreeDomm.fr https://freedomm.fr