Autre info: Il y a au moins une équipe de recherche publique qui travaille sur le sujet en France, pour l'instant sans succès probant, selon ma source.
Ça motive à chercher si d'autres équipes n'y sont pas arrivées
Pour la location c'est une idée, mais je préfère payer plus pour moins de puissance, mais me retrouver avec 3 pc de gamer. Enfin il faut voir la différence de calcul, si effectivement il y a un gouffre de un pour cent, c'est différent..
Pour la location c'est une idée, mais je préfère payer plus pour moins de puissance, mais me retrouver avec 3 pc de gamer. Enfin il faut voir la différence de calcul, si effectivement il y a un gouffre de un pour cent, c'est différent..
3 pc de gamers ??? tu vas avoir des soirées occupées
Sur le cloud, c'est toi qui définis la puissance de calcul qui sera mise à ta dispo...
Si tu veux 10 000 fois tes 3 PCS, c'est dispo... à condition de payer évidemment.
C'est du pay per use
Sur le cloud, c'est toi qui définis la puissance de calcul qui sera mise à ta dispo...
Si tu veux 10 000 fois tes 3 PCS, c'est dispo... à condition de payer évidemment.
C'est du pay per use
c'est génial d'avoir accès à une telle puissance de calcul
c'est un défi c'est stimulant
D'où l'intérêt d'associer le savoir d'un expert dans le domaine du deep learning et d'un trader.
Combien de fois dans ma vie j'ai entendu que quelque chose était irréalisable.
Ce n'est pas parce que jusqu'à présent personne n'y est arrivé que c'est impossible, il suffit de trouver le bon versant à grimper.
Combien de fois dans ma vie j'ai entendu que quelque chose était irréalisable.
Ce n'est pas parce que jusqu'à présent personne n'y est arrivé que c'est impossible, il suffit de trouver le bon versant à grimper.
Je vais peut être tenter le challenge. J'ai commencé à appeler quelques amis et connaissances pour voir si je peux constituer une bonne équipe de recherche, à même de traiter tous les aspects de la question.
@xxxx
Les moyens c'est une chose, ce qui fera la différence ce seront les intuitions et la capacité à les explorer, formaliser, conceptualiser.
Si tu regardes comment on est passé de l'intelligence artificielle classique à la révolution du deep-learning, c'est finalement "peu de choses", quelques légers changements de paradigmes, une combinaison d'intuition, d'empirisme et une nouvelle formalisation mathématique.
Les moyens c'est une chose, ce qui fera la différence ce seront les intuitions et la capacité à les explorer, formaliser, conceptualiser.
Si tu regardes comment on est passé de l'intelligence artificielle classique à la révolution du deep-learning, c'est finalement "peu de choses", quelques légers changements de paradigmes, une combinaison d'intuition, d'empirisme et une nouvelle formalisation mathématique.
@Chad
Oui c'est génial ! Bon, après tu finis par consommer en électricité l'équivalent de l'alimentation d'une petite ville...
faut donc pas trop abuser non plus...
Oui c'est génial ! Bon, après tu finis par consommer en électricité l'équivalent de l'alimentation d'une petite ville...
faut donc pas trop abuser non plus...
Deux petites remarques d'une personne maîtrisant les deux sujets et ayant pas mal d'années d'expériences:
1) Avant de choisir un algorithme il faut savoir ce que l'on va utiliser comme données en entrées, quelle sorties l'on souhaite obtenir et combien d'exemple d'apprentissage avons nous. L'exemple de google deep mind avec leur logiciel qui jouait sur atari montre l'intérêt du deep learning : 28224 données en entrées (image de 84 * 84 et 4 frames), 10 millions d'exemples d'apprentissages. Donc si vous n'avez pas autant de donnée à exploiter autant utilisé des algorithmes d'apprentissage moins contraignant (MLP, RBF, machine à vecteur de support , TDNN, etc...). Les couches bases dans un réseau de neurones profonds sont uniquement destiné à une sorte de compression de donnée.
2) La puissance de calcul, en utilisation temps réels, un réseau de neurones ne consomme que très peu. Seul l'apprentissage peut consommer énormément. Mais dans des cas simple un pc ordinaire est tout à fait suffisant, à titre d'exemple sur un Athlon 1090T il me suffit de 15 minutes pour faire apprendre un réseaux ayant 84 entrées, une base de 6000 exemples, deux neurones de sorties et une architecture de moins de 200 neurones environs. Les versions de google deep mind consommais beaucoup notamment à cause de la nécessité de fonctionner en temps réels, de la méthode d'apprentissage (combinaison non supervisé, supervisé et renforcement, jouer contre d'autre instance de lui même), du nombres de données d'entrées et de la structure du réseaux, dans du trading c'est complètement disproportionné d'utilisé autant de données en entrée.
1) Avant de choisir un algorithme il faut savoir ce que l'on va utiliser comme données en entrées, quelle sorties l'on souhaite obtenir et combien d'exemple d'apprentissage avons nous. L'exemple de google deep mind avec leur logiciel qui jouait sur atari montre l'intérêt du deep learning : 28224 données en entrées (image de 84 * 84 et 4 frames), 10 millions d'exemples d'apprentissages. Donc si vous n'avez pas autant de donnée à exploiter autant utilisé des algorithmes d'apprentissage moins contraignant (MLP, RBF, machine à vecteur de support , TDNN, etc...). Les couches bases dans un réseau de neurones profonds sont uniquement destiné à une sorte de compression de donnée.
2) La puissance de calcul, en utilisation temps réels, un réseau de neurones ne consomme que très peu. Seul l'apprentissage peut consommer énormément. Mais dans des cas simple un pc ordinaire est tout à fait suffisant, à titre d'exemple sur un Athlon 1090T il me suffit de 15 minutes pour faire apprendre un réseaux ayant 84 entrées, une base de 6000 exemples, deux neurones de sorties et une architecture de moins de 200 neurones environs. Les versions de google deep mind consommais beaucoup notamment à cause de la nécessité de fonctionner en temps réels, de la méthode d'apprentissage (combinaison non supervisé, supervisé et renforcement, jouer contre d'autre instance de lui même), du nombres de données d'entrées et de la structure du réseaux, dans du trading c'est complètement disproportionné d'utilisé autant de données en entrée.
1/ Oui, c'est l'une des premières interrogations. Je n'ai pas encore cherché où trouver des données fiables sur l'eurusd.
Le deep learning n'est pas adapté à tout, parfois des heuristiques font mieux le job. Ce sera à voir (si on lance le projet)
Une architecture holonique sera peut être nécessaire
2/ Oui, je parlais bien de l'apprentissage, de tous les essais/erreurs qui seront incontournables
merci
Le deep learning n'est pas adapté à tout, parfois des heuristiques font mieux le job. Ce sera à voir (si on lance le projet)
Une architecture holonique sera peut être nécessaire
2/ Oui, je parlais bien de l'apprentissage, de tous les essais/erreurs qui seront incontournables
merci
Pour reprendre les derniers messages, ma démarche est justement la conséquence d'un problème de puissance. J'en ai suffisamment parlé dans mon journal de trading auto. J'ai gratté dans tous les sens pour optimiser mes recherches. J'espère donc que la solution du deep learning saura résoudre cette équation.
Les inputs seront le prix, le temps et les niveaux, en output, limite/stop/type d'ordre.
Et du peu que je connais, je ne souhaite pas partir sur un type de régression, je ne cherche pas à deviner le prix suivant. Je cherche à identifier le plus efficacement un schéma récurent.
Les inputs seront le prix, le temps et les niveaux, en output, limite/stop/type d'ordre.
Et du peu que je connais, je ne souhaite pas partir sur un type de régression, je ne cherche pas à deviner le prix suivant. Je cherche à identifier le plus efficacement un schéma récurent.
Merci swing
@Epitaf
ok, et tu veux les identifier graphiquement ou par calcul ?
@Epitaf
ok, et tu veux les identifier graphiquement ou par calcul ?
Je n'arrive pas à imaginer une identification par graphique, en réel et à chaque tick il faudrait envoyer une image. Soit 200.000 images / jour.
Et pour la partie apprentissage, est-ce que le fait d'injecter des dizaines de millions d'images est réaliste ?
Dans mon esprit j'imagine le réseau comme une immense machine avec des millions de connexion neuronales ( des millions de bouton à tourner ) qu'il tourne en fonction de la distance des niveaux, et de la réaction du prix en fonction du temps ( mathématiquement parlant ).
Les graphiques, c'est pour les humains.
Et pour la partie apprentissage, est-ce que le fait d'injecter des dizaines de millions d'images est réaliste ?
Dans mon esprit j'imagine le réseau comme une immense machine avec des millions de connexion neuronales ( des millions de bouton à tourner ) qu'il tourne en fonction de la distance des niveaux, et de la réaction du prix en fonction du temps ( mathématiquement parlant ).
Les graphiques, c'est pour les humains.
Des millions de neurones ??? à côté de toi, Triplefail avec ses 200 neurones qui s'entrechoquent aurait l'air d'un décérébré or cela semble loin d'être le cas
Les IA savent très bien faire de la reconnaissance graphique. Je ne dis pas que c'est la solution (je suis totalement inexpérimenté en la matière et n'ai aucune réalisation de robot à mon actif) mais qu'elle serait envisageable.
Les IA savent très bien faire de la reconnaissance graphique. Je ne dis pas que c'est la solution (je suis totalement inexpérimenté en la matière et n'ai aucune réalisation de robot à mon actif) mais qu'elle serait envisageable.
une image sur ta plateforme de trading ce n'est qu'une représentation dans l'espace
c'est calculé si je ne m'abuse...
c'est calculé si je ne m'abuse...
c'est une transposition possible d'un signal, parmi une infinité d'autres ( dont les multiples indicateurs dérivés)
Non des connexions neuronales, c'est différent d'un neurone.
Un neurone peut avoir des centaines de connexion, cela dépend des tableaux.
Un neurone peut avoir des centaines de connexion, cela dépend des tableaux.
l'image est analogique une fois produiteEuraed a écrit :c'est une transposition possible d'un signal, parmi une infinité d'autres ( dont les multiples indicateurs dérivés)
oui, peut être, selon la définition d'analogique
cela va peut être vous sembler être un truisme, "nous voyons des images, car nous avons des yeux" !
à méditer...
la vérité est parfois ailleurs
les Chandeliers Japonais sont une convention de représentation faite par des humains pour des yeux et un cerveau humain.
Notre approche et compréhension de l'environnement est for forgée, entre autres, par nos perceptions sensorielles, avant et depuis la naissance.
Bref, rien n'oblige une IA à percevoir les datas telles que nous les percevons. C'est l'un des intérêts...
Concrètement (enfin presque )... rien ne l'oblige à penser en terme d'espace euclidien (une image 2D ou 3D par exemple), les portes d'un raisonnement temps réel en espace de Hilbert à dimensions infinies lui sont potentiellement ouvertes.
Pour démarrer le projet, je considère que nous aurons besoin, entre autres, d'un excellent mathématicien. J'ai déjà convaincu un docteur en informatique/intelligence artificielle, chercheur et prof école ingé. Il partage l'avis que la conceptualisation mathématique, la création d'outils mathématiques pourrait se révéler déterminante, d'autant plus si l'on souhaite explorer de nouveaux paradigmes.
J'ai un ami qui a le profil (il participe à la création des sujets d'agrégation de maths) et qui est aussi connecté aux meilleurs matheux français. Pour l'instant, il hésite... question de temps à y passer.
On va voir...
cela va peut être vous sembler être un truisme, "nous voyons des images, car nous avons des yeux" !
à méditer...
la vérité est parfois ailleurs
les Chandeliers Japonais sont une convention de représentation faite par des humains pour des yeux et un cerveau humain.
Notre approche et compréhension de l'environnement est for forgée, entre autres, par nos perceptions sensorielles, avant et depuis la naissance.
Bref, rien n'oblige une IA à percevoir les datas telles que nous les percevons. C'est l'un des intérêts...
Concrètement (enfin presque )... rien ne l'oblige à penser en terme d'espace euclidien (une image 2D ou 3D par exemple), les portes d'un raisonnement temps réel en espace de Hilbert à dimensions infinies lui sont potentiellement ouvertes.
Pour démarrer le projet, je considère que nous aurons besoin, entre autres, d'un excellent mathématicien. J'ai déjà convaincu un docteur en informatique/intelligence artificielle, chercheur et prof école ingé. Il partage l'avis que la conceptualisation mathématique, la création d'outils mathématiques pourrait se révéler déterminante, d'autant plus si l'on souhaite explorer de nouveaux paradigmes.
J'ai un ami qui a le profil (il participe à la création des sujets d'agrégation de maths) et qui est aussi connecté aux meilleurs matheux français. Pour l'instant, il hésite... question de temps à y passer.
On va voir...
Sujets similaires
Trading algorithmique, deep learning, level 2 market data
par Amarantine » 21 juil. 2023 14:11 (1 Réponses)
par Amarantine » 21 juil. 2023 14:11 (1 Réponses)