OK
Accueil > Communauté > Forum Détente

Algorithmes : ils prédisent notre avenir



JMiegeville JMiegeville
10/04/2023 08:17:22
0

Ces systèmes vont comporter une fonctionnalité de réécriture permettant de corriger ortographe et syntaxe mais surtout d'adapter le ton à l'effet recherché, le tout en conservant le sens.

Si les utilisateurs prennent le temps de relire le résultat avant de l'envoyer cela aura un effet pédagogique indirect en améliorant la façon dont les utilisateurs s'expriment à l'écrit.

Un peu comme les séries sous-titrées que beaucoup utilisent comme un outil d'apprentissage des langues.




  
Répondre
JCROIPLU JCROIPLU
10/04/2023 07:46:35
0

Par contre quand on mets en défaut chat gpt , celui non seulement reconnait son erreur mais en plus l’homme lui a appris à s’excuser devant son erreur. La facon dont il s’exprime par écris démontre l’effort fait par les constructeurs de l’outil pour qu’il soit poli!

  
Répondre
JMiegeville JMiegeville
09/04/2023 21:27:31
0

Prédire nécessite de détecter et de bien interpréter des signaux faibles avant de les intégrer à un contexte, or l'IA tout comme les systèmes de conduite autonome par exemple est incapable d'extraire de façon fiable de tels éléments de la mine d'infomation dont ils disposent.

Contrairement à certains humains dotés de capacités d'observation, d'analyse et de discernement que les méthodes pédagogiques actuelles tendent curieusement à annihiler au plus grand profit de l'IA qui n'est qu'une boîte noire aussi douée et fiable pour les prédictions qu'une boule de cristal.



  
Répondre
JCROIPLU JCROIPLU
09/04/2023 15:40:45
0

Chat gpt n'est pas un outil de prédiction, non plus.



  
Répondre
deckard6 deckard6
15/01/2020 12:43:39
1

Poser la question, c'est déjà y apporter un début de réponse mon cher PHENIX

  
Répondre
deckard6 deckard6
20/12/2019 19:17:10
3

Selon Alan Turing, l'intelligence artificielle est comme un enfant qu'il faut éduquer et qui une fois éduqué, éduquera à son tour les humains devenus des enfants

Good evenning guys

Message complété le 15/01/2020 12:46:37 par son auteur.


Avec le recul, je crois qu'il disait plutôt quelque chose comme : l'intelligence artificielle est comme un enfant qu'il faut éduquer et qui une fois DEVENU ADULTE, éduquera à son tour les humains devenus des enfants.

  
Répondre
JCROIPLU JCROIPLU
19/12/2019 12:41:17
6

Je pense que une solution face à ce défi est de créer SON propre système aléatoire.

Face à cet aléatoire ces algos, à mon avis, ne pourront RIEN, strictement RIEN.

Ils n'ont rien prévu face à un mec fou.


  
Répondre
Dubaisan Dubaisan
16/12/2019 09:42:49
2

Les outils d’IA, sont de plus en plus prédictifs des comportements humains courants et banaux. Ce qui n’est pas encore dans le domaine du prédictif, mais qui devrait pourtant l’être, c’est l’irrationalité humaine.

  
Répondre
deckard6 deckard6
16/12/2019 09:15:56
0

Voir le fantasme développé dans '' Minority Report ''

  
Répondre
simcour simcour
20/11/2019 04:35:59
0

Merci d'avoir partager tout ça avec nous !

  
Répondre
CRI74 CRI74
17/11/2019 11:07:41
1

Bonjour Frêne Commun .

Excusez l'Y , une des nombreuses fautes de frappe issue de l'utilisation des claviers .


Ce qui est parfaitement contestable dans les algorithmes provient de l'assurance avec laquelle on vous présente les fonctionnalités .

A partir du moment où vous évoluez dans des domaines où les solutions sont infinies , il est impossible d'obtenir la moindre certitude quant aux résultats produits , quelle que soit la puissance de calcul .

Vous en resterez aux probabilités avec leur degré d'erreur important qui ne peuvent donc s'appliquer à tout ce qui constitue un risque vital quelque part . Ce qui n'empêche nullement d'utiliser la fonctionnalité de gain de temps comme en médecine par exemple

C'est bien ce qui contraindra la mise en oeuvre de véhicule autonome en milieu ouvert , parmi les "modes exploré(e)s"

D'où l'utilisation des termes d'escroquerie , vouloir faire croire ce qui est impossible à réaliser en apportant des résultats incorrects .

Notez que les algorithmes les plus évolués , que vous nommez anormalement prédictifs , sont développés et utilisés dans la finance .

Leur seul résultat est d'approcher , de manière encore lointaine , l'évolution des marchés ou d'une valeur qui n'est le fruit que de la réplication un peu plus rapide pour les meilleurs des résultats obtenus par l'ensemble des programmes similaires qui conditionnent les cours (en gros , le Panurgisme informatique )

Je peux vous assurer à 100% de la véracité de cette dernière affirmation .

  
Répondre
frêne commun frêne commun
17/11/2019 08:40:55
0

Bonjour à toutes et à tous,

Bonjour CRI74,

Une question d'abord : pourquoi écris-tu algorithme avec y ?

Personnellement la formulation du titre ne me dérange pas: car selon les résultats obtenus on pourra prévoir infailliblement les poursuites engagées.

Ça n'est écrit nulle part mais chacun connaîtra par avance la conséquence de ses actes. C'est en çela que la démarche est prédictive.

Bon dimanche à toutes et à tous.




  
Répondre
CRI74 CRI74
16/11/2019 23:05:26
2

Le titre est faux !

Un algorythme , comme tout élément à base informatique , ne fait que calculer et répond à une programmation .

Il ne peut rien en découler de prédictif en ce qui concerne les actions réfléchies ou de quoi que ce soit issu d'une intelligence .

Cela fait partie des escroqueries intellectuelles de l'époque actuelle .

Ceci dit , la puissance de calcul alimente le progrès , le plus souvent , sinon de manière exclusive , en gain de temps au service de la réflexion humaine ce qui est bien différent de ce qu'on vous vend couramment

  
Répondre
0PHENIX0 0PHENIX0
16/11/2019 21:55:32
2

Chaque semaine, Courrier international explique ses choix éditoriaux, les hésitations et les débats qu’ils suscitent parfois dans la rédaction. La une du numéro en kiosque ce jeudi 14 novembre est consacrée aux algorithmes prédictifs, une technologie de plus en plus utilisée par certains États pour prédire les comportements à risque, et qui soulève énormément de questions.


Dans Minority Report, la nouvelle de Philip K. Dick publiée en 1956, adaptée au cinéma par Steven Spielberg, des individus surhumains (les précogs) visualisent des crimes en passe d’être commis dans un futur proche, permettant ainsi à la police d’arrêter les “présumés criminels” avant qu’ils ne passent à l’action. Au risque bien sûr d’emprisonner des innocents. La réalité serait-elle en passe de rejoindre la fiction ? Nous n’en sommes plus très loin, et c’est ce que nous tentons de décrypter dans le dossier cette semaine.

Tout est parti d’un reportage du Guardian à Bristol, repéré par notre spécialiste du Royaume-Uni. Dans cette ville de 170 000 habitants, près d’un quart de la population est suivi par un programme de prédiction, à destination des travailleurs sociaux, alimenté par les données de la police, du ministère de l’Emploi, du National Health Service (NHS, le système de santé publique… “Les intéressés, écrit le Guardian, reçoivent une note de 1 à 100 qui indique la possibilité qu’ils se livrent à des incivilités, portent atteinte à des enfants, ou encore disparaissent.”

Ailleurs au Royaume-Uni, mais aussi aux États-Unis, des logiciels utilisés par la police prédisent le risque de récidive. Au risque d’influer sur les condamnations. Ils jouent aussi un rôle déterminant dans les libérations sous caution. Dans les hôpitaux américains, explique la revue Nature, “les patients noirs seraient victimes de discrimination systématique de la part d’un algorithme couramment utilisé pour attribuer des prestations de santé”.

Les dangers du déterminisme

C’est l’un des points clés du dossier. Ces programmes informatiques qui établissent nos profils (en distinguant en quelque sorte les bons des mauvais citoyens) sont loin d’être objectifs. Et reflètent trop souvent les préjugés de ceux qui les ont conçus, explique le Financial Times.

On devine les dérives potentielles de ce genre d’outils. Elles ne sont pas sans rappeler certaines pratiques déjà à l’œuvre dans des régimes plus autoritaires. Depuis 2014, la Chine expérimente ainsi un système de notation des citoyens qui permet de sanctionner ou de récompenser le comportement des individus. C’est le fameux “crédit social”. Un système qui doit être généralisé en 2020. Gare à ceux qui seront “discrédités” par le système : voyager, trouver un emploi ou se loger peut alors devenir impossible.

À LIRE AUSSI Vidéo. En Chine, un système de notation des citoyens expérimenté dans plusieurs villes


Dans le même esprit, en Russie, la Douma a adopté en septembre un projet de loi visant à constituer un dossier unique sur chaque citoyen. Un moyen de lutter contre la fraude, justifient les autorités, un “crédit social” à la russe, s’inquiètent des voix plus critiques.

En 2017, pour fêter les 15 ans du film de Spielberg, le site américain The Verge revenait sur l’influence majeure de Minority Report dans la culture populaire. Et concluait, à raison : “Ce n’est pas seulement la technologie qui façonne l’avenir, mais la façon dont la société s’en empare.” À nous de rester vigilants.


  
Répondre

Forum de discussion Détente

202304100817 723514
logiciel chart 365 Suivez les marchés avec des outils de pros !

Chart365 par ABC Bourse, est une application pour suivre les marchés et vos valeurs favorites dans un environnement pensé pour vous.
Ma liste