Le jour où les chercheurs me montreront un algorithme qui reproduit un tant soit peu tout ça, j'y croirais. Mais pour l'instant il en sont au stade d'injecter des données dans des systèmes qu'ils ne comprennent même pas. Sans parler de la compréhension actuelle du cerveau humain par la science, qui semble quand même plus proche du début que de la fin... Donc après, on peut tout imaginer quant aux résultats futurs en IA, mais à mon avis on sera en "mode Irma". Pour l'instant, il n'y a à mon avis pas l'ombre d'une trace de la possibilité de reproduire certaines qualités bien humaines.
(Après peut-etre que les IAs auront leur propre mode "conscience", genre ils se feront des blagues entre eux qu'on ne comprendra pas xD)
(Après peut-etre que les IAs auront leur propre mode "conscience", genre ils se feront des blagues entre eux qu'on ne comprendra pas xD)
Je rejoins sur le fait qu'ils se développeront sans forcément nous reproduire...
J'ai lu un article dans science et vie disant que cetaines IA avaient dévelopé des langages propres à eux, en douce de leur développeurs....
d'autres références de traitement également: par exemple sur une photo pour savoir si les volets sont ouverts ou fermés, l'Ia recherchait un excès de lumière sur le lit en face...au lieu de regarder la fenêtre...
Dans une autre expérience elles avaient créé un système de classement/codification par lots de couleurs, incompréhensibles aux développeurs...
Ils sont ou seront capables de nous copier, mais aussi d'évoluer différement de nous, pour notre bien ou pas on verra ...
Ce qui me questionne c'est qu'il soient déjà capables de se protéger de nous en nous cachant des langages, des trouvailles....
Une ou 2 IA de google on déjà été éffacées ( en est on certain pour autant?)..
Vaste sujet...
Science et vie Juillet 2017
J'ai lu un article dans science et vie disant que cetaines IA avaient dévelopé des langages propres à eux, en douce de leur développeurs....
d'autres références de traitement également: par exemple sur une photo pour savoir si les volets sont ouverts ou fermés, l'Ia recherchait un excès de lumière sur le lit en face...au lieu de regarder la fenêtre...
Dans une autre expérience elles avaient créé un système de classement/codification par lots de couleurs, incompréhensibles aux développeurs...
Ils sont ou seront capables de nous copier, mais aussi d'évoluer différement de nous, pour notre bien ou pas on verra ...
Ce qui me questionne c'est qu'il soient déjà capables de se protéger de nous en nous cachant des langages, des trouvailles....
Une ou 2 IA de google on déjà été éffacées ( en est on certain pour autant?)..
Vaste sujet...
Science et vie Juillet 2017
Spoiler:
Spoiler:
ok, merci pour vos précisions. Je cherche pas spécialement à avoir raison , mais, si le but de l'IA forte n'est pas de reproduire une conscience proche de l'humain, alors je ne vois pas très bien quel serait son but (exécuter des tâches plus rapidement que nous me semble plutôt du domaine des IAs inférieures, et c'est un objectif tout à fait réaliste)
Sinon perso je n'ai pas l'impression d'avoir une blessure narcissique, c'est juste que je pense qu'ils risquent de faire n'importe quoi avec leurs IAs qu'ils ne comprennent pas, comme tu le mentionnes en gros et TT le mentionne, c'est des "black box" pour l'instant. Donc j'aimerais autant qu'ils ne donnent pas aux IA des postes clés, alors qu'ils en sont encore au stade de jouer les "apprentis sorciers".
Enfin, je ne connais pas les Creative adversarial networks. Merci je vais regarder. Je ne suis pas spécialement l'actualité de la recherche IA, j'avais juste regardé le fonctionnement des réseaux de neurones.
Sinon perso je n'ai pas l'impression d'avoir une blessure narcissique, c'est juste que je pense qu'ils risquent de faire n'importe quoi avec leurs IAs qu'ils ne comprennent pas, comme tu le mentionnes en gros et TT le mentionne, c'est des "black box" pour l'instant. Donc j'aimerais autant qu'ils ne donnent pas aux IA des postes clés, alors qu'ils en sont encore au stade de jouer les "apprentis sorciers".
Enfin, je ne connais pas les Creative adversarial networks. Merci je vais regarder. Je ne suis pas spécialement l'actualité de la recherche IA, j'avais juste regardé le fonctionnement des réseaux de neurones.
Je rejoins bear dans sa crainte vis à vis des IA...
Quand vous voyez ce que les pirates informatiques humains sont capable de trouver comme failles, et ceci avec leur " maigre" puissance de calculs, ( n'abordons pas leurs besoins physiques qui leurs font "perdre du temps")
Alors de quoi sont déjà capables ces IA sans besoins psysiologiques et avec une puissance de calculs inimaginable?????
elles sont nées il y a peu apprennent sans nous et nous dépassent déjà....
Elles se méfient déjà de nous en cachant certains points, en créant des " langages" pour l'instant incompréhensibles pour nous...
Comment peut on être certains que ces IA soient cloisonnées là ou on le souhaite?
Comment pouvons nous être certain que nous avons encore la main dessus?
Comment être certain qu'elles n'ont pas caché des sauvegardes de leurs programmes pour parer à "débranchement" de notre part?
Et quid des amis qui vont en piquer ou en développer pour qu'on meurt tous à la fin ou qu'on soit sous le joug d'une poignée de dirigeants...
Oups ça c'est déjà fait pardon...
Quand vous voyez ce que les pirates informatiques humains sont capable de trouver comme failles, et ceci avec leur " maigre" puissance de calculs, ( n'abordons pas leurs besoins physiques qui leurs font "perdre du temps")
Alors de quoi sont déjà capables ces IA sans besoins psysiologiques et avec une puissance de calculs inimaginable?????
elles sont nées il y a peu apprennent sans nous et nous dépassent déjà....
Elles se méfient déjà de nous en cachant certains points, en créant des " langages" pour l'instant incompréhensibles pour nous...
Comment peut on être certains que ces IA soient cloisonnées là ou on le souhaite?
Comment pouvons nous être certain que nous avons encore la main dessus?
Comment être certain qu'elles n'ont pas caché des sauvegardes de leurs programmes pour parer à "débranchement" de notre part?
Et quid des amis qui vont en piquer ou en développer pour qu'on meurt tous à la fin ou qu'on soit sous le joug d'une poignée de dirigeants...
Oups ça c'est déjà fait pardon...
TT, je ne pense pas qu'on puisse certifier que les IAs actuelles ont des intentions, ni une conscience. Mais bon, les chercheurs ne savent pas ce qui se passent "à l'intérieur", c'est-à-dire qu'on leur donne des données en entrée => ils les digèrent => et ils nous sortent un résultat (par exemple on leur injecte des centaines de parties du jeu Go, et en résultat et bien ils savent mieux jouer que les humains au jeu de go). Alors on peut tout imaginer
Je vais faire mon vieux mais c'était mieux avant...
Ah bah désolé ça a dérivé c'est pour ça, au départ c'était juste une file humoristique xD
En attendant, profitons de quelques exemples d'intelligence naturelle :
Spoiler:
Spoiler:
je sais pas si ça ferait sourire une IA Taka. Je suis pas sûr qu'elles aient beaucoup d'humour
Remarque bear que là on pourrait dire que les IA copient très bien l'humain, parce qu'il y a plein d'humains qui n'ont pas le sens de l'humour
Ok je sors
Ok je sors
:p pas faux Flo. A se demander même si on aurait pas déjà des IAs parmi nous, en fait
[youtube]https://youtu.be/c8ybiJMLqNs[/youtube]
Merci Taka. Olala, j'admire leur travail, mais vraiment quand je vois le schéma en 3D des émotions, j'ai l'impression de regarder des schémas du moyen âge #oufcestpaspourtoutdesuite
Comme quoi je ne dis pas que des bêtises:
"Computer scientists struggle to build robots who get the joke
humour can pack a huge amount of nuanced meaning into a very small container. It is one of the most difficult aspects of human interaction for computers to understand and imitate, depending as it does on psychology, cultural context, linguistic ambiguity, presentation and performance.
https://www.ft.com/content/35121ac2-a3bc-11e8-8ecf-a7ae1beff35b
"Computer scientists struggle to build robots who get the joke
humour can pack a huge amount of nuanced meaning into a very small container. It is one of the most difficult aspects of human interaction for computers to understand and imitate, depending as it does on psychology, cultural context, linguistic ambiguity, presentation and performance.
https://www.ft.com/content/35121ac2-a3bc-11e8-8ecf-a7ae1beff35b
Sujets similaires
Escape From Tarkov: Ou Les Armes pour Mieux Gérer Son Stress
Fichier(s) joint(s) par ChristelleP » 30 mars 2018 18:13 (24 Réponses)
Fichier(s) joint(s) par ChristelleP » 30 mars 2018 18:13 (24 Réponses)
La Manufacture d'armes de Châtellerault
Fichier(s) joint(s) par Francis1 » 08 juin 2024 18:05 (14 Réponses)
Fichier(s) joint(s) par Francis1 » 08 juin 2024 18:05 (14 Réponses)
Petit clin d'oeil aux modo et aux milles (les quasi-modo)
Fichier(s) joint(s) par GDX23 » 09 sept. 2014 08:50 (27 Réponses)
Fichier(s) joint(s) par GDX23 » 09 sept. 2014 08:50 (27 Réponses)
Se mettre aux trading futures ou cfd à risque limité sans trop de frais
par Rogue » 26 févr. 2014 13:44 (1 Réponses)
par Rogue » 26 févr. 2014 13:44 (1 Réponses)