OK
Accueil  > Communauté   > Forum Detente

Algorithmes : ils prédisent notre avenir



deckard6
15/01/2020 13:10:51
0

Compañero, de la philo au milieu des algos : t'es un sacré coco !


Je ne comprends pas ce qui te fait dire ça...




  
Répondre
deckard6
15/01/2020 12:43:39
1

Poser la question, c'est déjà y apporter un début de réponse mon cher PHENIX

  
Répondre
0PHENIX0
15/01/2020 12:07:11
0

Les robots ont-ils pris le pouvoir en bourse ?

Message complété le 15/01/2020 12:07:36 par son auteur.

bit.ly/2u5JdUP

Message complété le 15/01/2020 12:49:44 par son auteur.

Compañero, de la philo au milieu des algos : t'es un sacré coco !

  
Répondre
0PHENIX0
25/12/2019 21:59:13
1

IA : Seulement Un Effet Marketing ?

24 décembre 2019


Le consultant Robert Bentz s’insurge contre “l’escroquerie” que serait aujourd’hui l’IA dans un article du Monde publié le 24 novembre. Selon lui, l’IA n’a rien d’intelligent, la révolution n’est que commerciale, et les avancées technologiques redondantes voire inutiles. Pourtant, que cette technologie soit “intelligente” ou non, elle est réellement révolutionnaire, et transforme déjà le monde du travail et la société dans laquelle nous vivons.

Certes, le terme d’ “intelligence” n’est pas nécessairement le plus approprié. Mais rappelons que cette notion s’inscrit dans l’histoire. Elle a vu le jour dans les années 1950 grâce au mathématicien Alan Turing et son livre Computing Machinery and Intelligence dans lequel il soulève la question de ce que serait une forme d’intelligence pour les machines, et développe le fameux “Test de Turing”. Aujourd’hui, les grandes entreprises tech entraînent grâce à des calculateurs très puissants des réseaux de neurones sur de gigantesques bases de données afin d’appliquer l’IA, et oui, dans le but de changer le monde.


https://www.forbes.fr/technologie/ia-seulement-un-effet-marketing/

  
Répondre
0PHENIX0
20/12/2019 21:20:14
1

Le test de Turing est une proposition de test d’intelligence artificielle fondée sur la faculté d'une machine à imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing Machinery and Intelligence, ce test consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain.

Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’humain essaieront d’avoir une apparence sémantique humaine.


Wikisaitout

  
Répondre
deckard6
20/12/2019 19:17:10
2

Selon Alan Turing, l'intelligence artificielle est comme un enfant qu'il faut éduquer et qui une fois éduqué, éduquera à son tour les humains devenus des enfants

Good evenning guys

Message complété le 15/01/2020 12:46:37 par son auteur.


Avec le recul, je crois qu'il disait plutôt quelque chose comme : l'intelligence artificielle est comme un enfant qu'il faut éduquer et qui une fois DEVENU ADULTE, éduquera à son tour les humains devenus des enfants.

  
Répondre
0PHENIX0
20/12/2019 18:33:41
2

C'est sans rapport avec l'homme vs les algos mais, à mon sens, bien se connaître est une des conditions sine qua non pour espérer pouvoir réussir en bourse.


Contrôler ses émotions en bourse

https://www.youtube.com/watch?v=vtx-fvlYWYI&feature=youtu.be

  
Répondre
0PHENIX0
19/12/2019 12:45:33
1

C'est tellement vrai 👍

Rien de tel qu'un bon foutoir 🤪 pour les déstabiliser.

  
Répondre
JCROIPLU
19/12/2019 12:41:17
3

Je pense que une solution face à ce défi est de créer SON propre système aléatoire.

Face à cet aléatoire ces algos, à mon avis, ne pourront RIEN, strictement RIEN.

Ils n'ont rien prévu face à un mec fou.


  
Répondre
0PHENIX0
19/12/2019 12:30:11
3

L'intelligence artificielle s'immisce à toute vitesse dans la finance où les investisseurs recherchent toujours une longueur d'avance technologique mais ajoute un facteur de déstabilisation aux marchés.

Depuis dix ans les programmes informatiques de plus en plus complexes règnent sur les salles de trading, avec des ordinateurs qui achètent ou vendent automatiquement des titres selon qu'ils dépassent ou tombent sous certains prix, ou en fonction de certaines décisions politiques attendues, etc.

Le courtage à haute fréquence, c'est-à-dire des ordinateurs qui mènent automatiquement des milliers de transactions à la seconde pour profiter de mini-variations de cours, est aussi devenu monnaie courante.

Mais l'intelligence artificielle va encore plus loin: des logiciels d'"apprentissage automatique" (machine learning) croisent à toute vitesse des dizaines de bases de données gigantesques, trouvent des tendances, corrélations, émettent des modélisations, prévisions... Et prennent seuls les décisions d'achat/vente.

D'après le cabinet d'analyses Greenwich, plus de 50% des entreprises de marché auront mis en place des procédures d'intelligence artificielle d'ici deux ans.

Les fonds d'investissement et gestionnaires de portefeuilles s'en servent pour mieux maîtriser leurs risques ou choisir quoi acheter, pour qui et quand.


Les banques l'utilisent pour la détection de fraudes et d'attaques informatiques, fixer le prix d'un produit, analyser le profil de clients. C'est aussi un outil pour baisser leurs coûts, au moment où les taux d'intérêt négatifs compressent leurs marges.

Les régulateurs ont quant à eux recours à l'intelligence artificielle pour détecter de potentiels "événements catastrophiques sur les marchés comme les faillites en cascade de 2008", explique la CFTC, l'un des régulateurs américains.

- Intuitions -

La société SparkBeyond, qui travaille notamment pour Microsoft, souligne aussi que le "machine learning" permet de tester certaines intuitions pas toujours pertinentes.

Par exemple, explique Edward Janvrin, directeur Europe de la start-up israélienne, à la question "qu'est-ce qui pronostique le mieux les chances de survie après un appel d'urgence?", la proximité d'un hôpital semble une réponse logique.

Mais le logiciel de SparkBeyond, après analyse de millions de données en seulement quelques minutes, montre que le vrai facteur prédictif, c'est la proximité d'une caserne de pompiers.

Cela peut s'appliquer aux marchés avec d'autres questions, comme "Quand est-ce qu'il faut acheter ce titre?"

Les inconditionnels des machines comme Vasant Dhar, professeur à l'université NYU Stern et gestionnaire d'un fonds spéculatif, affirment que le courtage automatisé est toujours plus sûr que les transactions réalisées par les humains, plus susceptibles de paniquer, réagir aux effets de troupeau, etc. "Les humains ne prennent pas de bonnes décisions (...) à court terme les machines font mieux".

- Disjoncteur -

Il souligne toutefois que tout système d'intelligence artificielle prévoit un humain pour éliminer certains biais et jouer le rôle de "disjoncteur" en cas de dysfonctionnement.

Mais les problèmes peuvent survenir quand trop d'investisseurs se reposent sur les mêmes logiciels et parient sur les mêmes scénarios: "le marché peut alors devenir très déséquilibré", admet M. Dhar. Avec un risque d'effet domino si tous les logiciels se mettent à vendre massivement tel ou tel actif.

Dans un rapport, la Banque d'Angleterre reconnaît ainsi que le "machine learning", s'il ne crée pas de nouveaux risques, "peut en amplifier".

Les professionnels de la finance gardent en mémoire le krach éclair de 2010 à la Bourse de New York, où le Dow Jones avait perdu plus de 9% en 10 minutes. De même en 2016, la livre avait perdu 12% en 2 minutes, entraînant de grosses pertes pour certaines entreprises.

Ces incidents ont été attribués par beaucoup aux algorithmes, mettant en lumière les risques du courtage à haute fréquence. Sans oublier ceux de manipulations de marché, à l'ère des fausses informations.

Autre problème avec la montée en force des machines: comme elles se trompent peu, qu'elles vont de plus en plus vite et tournent de plus en plus en vase clos, les humains ont tendance à se reposer sur elles. Résultat: ils ne savent plus toujours déceler une erreur, ni comment intervenir, remarque Vasar Dhar.

L'un des enjeux du secteur est justement de le rendre intelligible auprès des clients et des régulateurs des logiciels qui évoquent des boîtes noires. D'autant que ce sont les humains qui restent responsables devant la loi.

Ceux qui restent du moins: comme dans les autres domaines de l'économie, le cabinet Greenwich constate que "des emplois ont été supprimés à cause de l'automatisation", avec des vétérans du secteur par des machines.

  
Répondre
0PHENIX0
18/12/2019 20:23:24
3

L'informatique quantique pourrait se généraliser au cours de cette décennie


Que se passe-t-il lorsque l'informatique quantique atteint les masses et devient aussi courante qu'un smartphone ? Nous n'aurons peut-être pas à attendre si longtemps pour le savoir. C'est ce qui vient ensuite, selon le stratège Haim Israel de Bank of America. Israël salue l'informatique quantique comme un produit révolutionnaire pour cette décennie, affirmant qu'elle sera aussi grande que les smartphones dans les années 2010.


Les scientifiques n'en sont pas si sûrs, et pas aussi optimistes. Nombreux sont ceux qui assimilent l'informatique quantique à la course à l'espace des années 1950. Nous n'en sommes pas encore là non plus, mais c'est peut-être parce que le gouvernement a laissé tomber et que les choses ne font que s'améliorer entre les mains de la grosse technologie.


Donc, c'est encore loin, mais c'est une course, c'est sûr.


Les États-Unis, la Chine et la Russie se disputent la suprématie quantique.


Traduit avec www.DeepL.com/Translator (version gratuite)

Message complété le 18/12/2019 20:23:41 par son auteur.

https://safehaven.com/news/Breaking-News/Quantum-Computing-Could-Go-Mainstream-This-Decade.html

  
Répondre
0PHENIX0
16/12/2019 23:18:24
0

Camarade D6, l'article de Courrier international (post de tête) comme par ... ? :)

  
Répondre
0PHENIX0
16/12/2019 23:11:27
1

Il s'agit sans doute plus de "normalité" que de "rationnel". D'ailleurs il y a aussi ce problème en finance comportementale.

Message complété le 16/12/2019 23:19:18 par son auteur.

Rationalité ou normalité?
https://www.investir.ch/article/la-finance-comportementale-cest-quoi/

  
Répondre
Dubaisan
16/12/2019 09:42:49
2

Les outils d’IA, sont de plus en plus prédictifs des comportements humains courants et banaux. Ce qui n’est pas encore dans le domaine du prédictif, mais qui devrait pourtant l’être, c’est l’irrationalité humaine.

  
Répondre
deckard6
16/12/2019 09:15:56
0

Voir le fantasme développé dans '' Minority Report ''

  
Répondre
0PHENIX0
16/12/2019 08:43:16
0

L'intelligence artificielle peut-elle faire de l'argent en négociant du pétrole ?

Jason Zweig a récemment publié une fascinante chronique sur la recherche sur la valeur des investissements dans les matières premières, y compris le pétrole et autres matériaux industriels ainsi que les produits agricoles. Il décrit l'analyse du comportement historique et des rendements des marchandises de Summerhaven Investment Management, qui a conclu que, sur une longue période et pour une vaste gamme de contrats, les rendements étaient supérieurs de 5,2 % à ceux des liquidités, presque aussi bons que ceux des actions.


Ce type de recherche est extrêmement utile, mais il est toujours utile de rappeler l'expression standard : "Les performances passées ne garantissent pas les résultats futurs". Cette phrase vient toujours à l'esprit quand on parle d'utiliser l'intelligence artificielle à des fins d'investissement, car l'un des principaux aspects de l'intelligence artificielle est qu'elle apprend de l'expérience. La question est de savoir quand l'expérience tombe.


Certes, le cas le plus célèbre a été décrit dans le livre, When Genius Failed, sur la façon dont le hedge fund Long-Term Capital Management a coulé lorsque le rouble s'est effondré en 1998. Ce mouvement a pris la valeur du rouble bien en dehors de la gamme historique utilisée dans les modèles de l'entreprise,


Peut-on s'attendre à la même chose avec le pétrole ? Eh bien, oui. L'un de mes graphiques préférés (malheureusement, je ne me souviens plus qui l'a utilisé en premier) a montré la relation entre le prix du pétrole et les stocks de brut du secteur privé américain, comme ci-dessous. La corrélation est très élevée et la causalité semble très claire : plus l'offre est élevée, plus les prix sont bas, plus l'offre est faible, plus les prix sont élevés.


Sauf que la relation n'est valable que pour la période 1995-2003 ; ensuite, elle s'inverse, comme le montre la figure suivante. Le risque politique, ou prime de sécurité, est l'explication typique de ce comportement apparemment aberrant, où des stocks plus élevés entraînent des prix plus élevés. En réalité, plus le risque est élevé, plus les prix sont élevés et plus la demande de stocks est forte. Étant donné que le risque est perçu, et non tangible, je ne sais pas dans quelle mesure un programme d'IA pourrait le mesurer et encore moins le prévoir.


Bien sûr, au-delà de la relation changeante entre les stocks et les prix, il y a le fait que si les stocks de brut prédisent les prix, les prédicteurs des stocks de brut sont nombreux et variés, y compris les cycles de raffinage, les importations, la demande, les conditions météorologiques dans les grands ports, la croissance économique, les prix (prévus, absolus et différentiels, le brut et les produits) et j'en passe. Comme le montre la figure ci-dessous, il y a d'énormes variations dans les mouvements des stocks de brut, même entre 1995 et 2003, lorsque la corrélation avec les prix semble forte. La prévision des prix à partir des mouvements des stocks de pétrole brut est donc beaucoup plus utile en rétrospective qu'en prévision.


Si l'on regarde le graphique ci-dessous, il semble facile de prédire l'effondrement des prix du pétrole en 1986 (surtout rétrospectivement), étant donné la chute vertigineuse de la part de marché de l'OPEP. D'autre part, le prix s'est également effondré en 1998 et 2015, ni l'un ni l'autre en raison des pressions exercées sur l'OPEP dans son ensemble ou sur l'Arabie saoudite en particulier. Personnellement, je n'avais pas prévu l'effondrement des prix du pétrole en 2015 (j'avais prédit la chute à 50 à 60 dollars, mais je m'y attendais plus tard), étant donné que la production saoudienne était proche des niveaux records, de sorte que même les renseignements non artificiels peuvent échouer. (Choquant, je sais.)

En fin de compte, je pense que les programmes d'IA seront utiles, mais étant donné l'influence subjective (humaine) importante sur les prix du pétrole, ils seront probablement toujours surperformés par de bons analystes.

Source : Forbes


Traduit avec www.DeepL.com/Translator (version gratuite)


  
Répondre
simcour
20/11/2019 04:35:59
0

Merci d'avoir partager tout ça avec nous !

  
Répondre
0PHENIX0
19/11/2019 19:03:31
0

Ces lignes de code qui ont tout changé (1725-1965)


... C'est donc précisément ce qu'a décidé de faire Slate.com, dans un article dont nous vous proposons la traduction. Afin de mettre en lumière ces logiciels qui ont révolutionné le monde, nous avons consulté des informaticiens, des développeurs, des historiens, des responsables politiques et des journalistes. Nous leur avons posé la question suivante: «Quelles lignes de code ont eu, selon vous, une influence majeure, ont transformé nos vies?». Soixante-quinze environ ont répondu avec toutes sortes d'idées, et Slate.com en a sélectionné 36. Ce n'est pas une liste exhaustive. Cela serait impossible compte tenu de la quantité massive de codes influents qui ont été écrits (l'un des mes favoris parmi ceux qui n'ont pas été retenus: Quicksort ou peut-être l'algorithme de Bernoulli d'Ada Lovelace). Comme toutes les listes, elle a pour but de faire réfléchir: de nous aider à comprendre comment le code sous-tend nos vies et de quelle manière les décisions prises par les programmeurs se répercutent ensuite....

https://korii.slate.fr/tech/ces-lignes-code-qui-ont-tout-change-13



Message complété le 19/11/2019 19:05:29 par son auteur.

Ces lignes de code qui ont tout changé (1968-1993)

1968 – L'algorithme des rondes policières
Les prémices de la police prédictive moderne... et du profilage racial informatisé.

Lorsque le président américain Lyndon Johnson monta sa commission sur l'application des lois et l'administration de la justice, en 1965, il lui demanda d'examiner de quelle manière les ordinateurs pourraient permettre de résoudre le «problème de criminalité» de son pays (problème que lui-même ainsi que la commission en question qualifiaient à l'époque de «noir» et «urbain»).

La réponse à cette demande fut le Police Beat Algorithm (PBA), ou «algorithme des rondes policières», destiné à résoudre les problèmes de planification policière (savoir combien envoyer d'agents dans une zone donnée, etc.).

Combiner le PBA avec une base de données criminelle permettait aux autorités policières de faire ressortir automatiquement des profils de suspects, établis en fonction des données démographiques raciales des rondes de police, et de déployer des ressources (agents, armes et autres matériels) en conséquence. Avant même que toute infraction à la loi n'ait été commise...


https://korii.slate.fr/tech/ces-lignes-code-qui-ont-tout-change-1968-1993

  
Répondre
0PHENIX0
18/11/2019 16:48:48
0

Les algorithmes, un danger pour la santé des Américains noirs

Même les logiciels de prise de décision utilisés par les hôpitaux aux États-Unis sont racistes. Peut-on corriger ces préjugés, se demande la revue scientifique Nature.


Une analyse détaillée vient de le révéler : les patients noirs seraient victimes de discrimination systématique de la part d’un algorithme couramment utilisé dans les hôpitaux américains pour attribuer des prestations de santé. L’étude, publiée dans Science le 25 octobre, conclut que cet algorithme est moins susceptible de faire bénéficier les Noirs que les Blancs de programmes destinés à améliorer les soins des patients présentant des besoins médicaux complexes. Les hôpitaux et les assureurs se servent de cet algorithme et d’autres pour gérer les soins de près de 200 millions de personnes chaque année aux États-Unis.

https://www.courrierinternational.com/article/technologies-les-algorithmes-un-danger-pour-la-sante-des-americains-noirs

  
Répondre
CRI74
17/11/2019 11:07:41
1

Bonjour Frêne Commun .

Excusez l'Y , une des nombreuses fautes de frappe issue de l'utilisation des claviers .


Ce qui est parfaitement contestable dans les algorithmes provient de l'assurance avec laquelle on vous présente les fonctionnalités .

A partir du moment où vous évoluez dans des domaines où les solutions sont infinies , il est impossible d'obtenir la moindre certitude quant aux résultats produits , quelle que soit la puissance de calcul .

Vous en resterez aux probabilités avec leur degré d'erreur important qui ne peuvent donc s'appliquer à tout ce qui constitue un risque vital quelque part . Ce qui n'empêche nullement d'utiliser la fonctionnalité de gain de temps comme en médecine par exemple

C'est bien ce qui contraindra la mise en oeuvre de véhicule autonome en milieu ouvert , parmi les "modes exploré(e)s"

D'où l'utilisation des termes d'escroquerie , vouloir faire croire ce qui est impossible à réaliser en apportant des résultats incorrects .

Notez que les algorithmes les plus évolués , que vous nommez anormalement prédictifs , sont développés et utilisés dans la finance .

Leur seul résultat est d'approcher , de manière encore lointaine , l'évolution des marchés ou d'une valeur qui n'est le fruit que de la réplication un peu plus rapide pour les meilleurs des résultats obtenus par l'ensemble des programmes similaires qui conditionnent les cours (en gros , le Panurgisme informatique )

Je peux vous assurer à 100% de la véracité de cette dernière affirmation .

  
Répondre

Forum de discussion Detente

202001151310 723514
Ma liste