Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#576 Le 05/03/2018, à 20:47

side

Re : La p'tite heure du café philo

Floriane a écrit :

Il n'est pas condamné parce qu'il a fait quelque chose de mal, mais parce qu'il n'a pas respecté la loi.

La loi d'un pays est le reflet de sa morale générale.

C'est bien parce que c'est mal de tuer, que c'est interdit par la loi.
Mais comme la justice doit être aveugle, elle ne peut pas condamner sur des bases morales mais seulement sur des bases légales.


« Je ne suis pas une adversaire de l’Europe, je me sens européenne. Je voudrais qu’il y ait des accords entre les nations librement consentis, c’est cette Europe-là que je veux voir émerger et je souhaite que la France soit à l’origine de ce beau projet, de cette belle initiative » - Marine Le Pen - 25 Avril 2017 - TF1

Hors ligne

#577 Le 05/03/2018, à 21:22

sucarno

Re : La p'tite heure du café philo

side a écrit :
Floriane a écrit :

Il n'est pas condamné parce qu'il a fait quelque chose de mal, mais parce qu'il n'a pas respecté la loi.

La loi d'un pays est le reflet de sa morale générale.

C'est bien parce que c'est mal de tuer, que c'est interdit par la loi.
Mais comme la justice doit être aveugle, elle ne peut pas condamner sur des bases morales mais seulement sur des bases légales.

Un tueur tuera avec ou sans les lois !


« Les tyrans ne sont grands que parce que nous sommes à genoux ». Étienne de La Boétie

Hors ligne

#578 Le 06/03/2018, à 07:44

Comptesupprimé

Re : La p'tite heure du café philo

side a écrit :

Mais comme la justice doit être aveugle, elle ne peut pas condamner sur des bases morales mais seulement sur des bases légales.

Pourtant elle a comme base le code civil. C'est un peu contradictoire non ?

Sinon je suis dubitatif sur le fait que la morale doit rester en dehors du jugement : quand je vois des reportages à télévision, comment des juges parlent à des condamnés, à propos de leurs façons de se tenir, de s'habiller, de se présenter, de parler, je trouve que c'est bourré de morale.

#579 Le 06/03/2018, à 08:55

Compte anonymisé

Re : La p'tite heure du café philo

Floriane a écrit :

Pensée de fin d'aprem :

On peut être condamné par quelque chose que la société rejette : par exemple, il est entendu qu'il ne faut pas faire de mal à son prochain.

Bien.

Floriane a écrit :

Mais en définitive, celui qui qui ne respecte pas les lois que la société dans laquelle il vit, lui dicte, est condamné pour non respect de ces lois.

Ben c’est normal, non ? En tout cas : si,  dans ton exemple, il est établi que faire du mal à son prochain est punissable par la loi.

Floriane a écrit :

Il n'est pas condamné parce qu'il a fait quelque chose de mal, mais parce qu'il n'a pas respecté la loi.

Là, je ne comprends pas trop la distinction que tu établis ou alors faut préciser que pour lui, il n’a pas fait quelque chose de mal.

Ce qui amène à établir une distinction entre la morale et l’éthique.

La morale c’est la loi établie par une société, ses juges, les lois d’un pays, celles d’une religion et qui décide du Bien et du Mal. Elle nous vient "d’en haut" en quelque sorte et elle est supposée s’appliquer à tous.

L’éthique c’est différent : elle est le fruit d’une réflexion et d’une décision individuelle et personnelle. Son sujet n’est pas d’établir une distinction entre le Bien et le Mal (distinction définie par la société qui nous est extérieure et vient "d'en haut") mais entre le Bon et le Mauvais (« établi par moi, en ma propre conscience, en fonction de mes propres valeurs), ce qui n’est pas du tout pareil. Une décision éthique n’engage alors que toi mais peut être en contradiction avec la loi morale (et condamnée par elle)

Exemple 1 : la loi française interdit aux français d’aider des migrants à entrer en France. Mais certains passent d’Italie en France par le col des l’Echelle dans les Hautes-Alpes. Alors des montagnards, n’écoutant que leur conscience et leurs valeurs, aident ces migrants à passer le col en les sauvant d’une mort certaine parce qu’ils savent à quel point la traversée de col est périlleuse, surtout en hiver. Ils agissent en leur nom propre, à leurs risques et périls aux yeux de la loi mais en respect de leur propre conscience.

Exemple 2 : dans un pays où le service militaire est obligatoire, tu refuses de le faire parce que tu es fondamentalement un pacifiste. Tu es objecteur de conscience en fonction d'une éthique personnelle.

Donc, si je t’ai bien compris, dans ton exemple le gars ne pense pas avoir fait quelque chose de mal d’après son éthique personnelle (= ce qu’il a fait, il a estimé que c’était bon pour lui) mais la loi morale de la société a estimé, elle, que c’était mal et l’a condamné en rapport avec sa conception du Bien et du Mal)

Dernière modification par Compte anonymisé (Le 06/03/2018, à 08:57)

#580 Le 06/03/2018, à 12:47

Comptesupprimé

Re : La p'tite heure du café philo

jackpot a écrit :
Floriane a écrit :

Pensée de fin d'aprem :

On peut être condamné par quelque chose que la société rejette : par exemple, il est entendu qu'il ne faut pas faire de mal à son prochain.

Bien.

Floriane a écrit :

Mais en définitive, celui qui qui ne respecte pas les lois que la société dans laquelle il vit, lui dicte, est condamné pour non respect de ces lois.

Ben c’est normal, non ? En tout cas : si,  dans ton exemple, il est établi que faire du mal à son prochain est punissable par la loi.

Floriane a écrit :

Il n'est pas condamné parce qu'il a fait quelque chose de mal, mais parce qu'il n'a pas respecté la loi.

Là, je ne comprends pas trop la distinction que tu établis ou alors faut préciser que pour lui, il n’a pas fait quelque chose de mal.

Ce qui amène à établir une distinction entre la morale et l’éthique.

La morale c’est la loi établie par une société, ses juges, les lois d’un pays, celles d’une religion et qui décide du Bien et du Mal. Elle nous vient "d’en haut" en quelque sorte et elle est supposée s’appliquer à tous.

L’éthique c’est différent : elle est le fruit d’une réflexion et d’une décision individuelle et personnelle. Son sujet n’est pas d’établir une distinction entre le Bien et le Mal (distinction définie par la société qui nous est extérieure et vient "d'en haut") mais entre le Bon et le Mauvais (« établi par moi, en ma propre conscience, en fonction de mes propres valeurs), ce qui n’est pas du tout pareil. Une décision éthique n’engage alors que toi mais peut être en contradiction avec la loi morale (et condamnée par elle)

Exemple 1 : la loi française interdit aux français d’aider des migrants à entrer en France. Mais certains passent d’Italie en France par le col des l’Echelle dans les Hautes-Alpes. Alors des montagnards, n’écoutant que leur conscience et leurs valeurs, aident ces migrants à passer le col en les sauvant d’une mort certaine parce qu’ils savent à quel point la traversée de col est périlleuse, surtout en hiver. Ils agissent en leur nom propre, à leurs risques et périls aux yeux de la loi mais en respect de leur propre conscience.

Exemple 2 : dans un pays où le service militaire est obligatoire, tu refuses de le faire parce que tu es fondamentalement un pacifiste. Tu es objecteur de conscience en fonction d'une éthique personnelle.

Donc, si je t’ai bien compris, dans ton exemple le gars ne pense pas avoir fait quelque chose de mal d’après son éthique personnelle (= ce qu’il a fait, il a estimé que c’était bon pour lui) mais la loi morale de la société a estimé, elle, que c’était mal et l’a condamné en rapport avec sa conception du Bien et du Mal)

Alors non il ne s'agit en aucun cas de faire une distinction entre morale et éthique.

Juste entre morale et loi, comme l'a souligné side plus haut...

J'ai pris l'exemple de faire du mal, puisque toutes nos lois sont basées dessus. Pas pour remettre en cause ce qui serait bien moralement ou éthiquement. C'est un autre débat qui pourrait peut-être être intéressant...

Je m'arrêtais juste sur le fait que l'on soit condamné pour le ne pas avoir respecté une loi, et tout ce qui est au delà, n'a pas d'importance aux yeux de la condamnation en elle-même.

Où je veux en venir ? Qu'on ne demande pas aux gens d'avoir une morale (et une éthique on s'en moque encore plus) mais de respecter scrupuleusement ce qui est écrit arbitrairement dans le code civil. N'importe quel robot pourrait respecter les lois, et d'un autre côté pourrait devenir hors la loi.

Mais dans les années à venir, comment on fera en sorte qu'un robot obéisse scrupuleusement aux lois, si ce dernier n'est pas totalement protégé contre une faille, un bug ? Est-ce qu'il sera coupable et dans quelle mesure ?

On peut se demander, du coup, où est la limite, et qui sera responsable en cas de défaillance. Surtout si les robots deviennent de plus en plus anonymes et autonomes dans quelques décennies, quelques siècles.

Ce système de loi serait vite limité, du coup, il faudra en trouver un autre mieux adapté.

#581 Le 06/03/2018, à 14:12

Compte anonymisé

Re : La p'tite heure du café philo

Floriane a écrit :

Je m'arrêtais juste sur le fait que l'on soit condamné pour le ne pas avoir respecté une loi, et tout ce qui est au delà, n'a pas d'importance aux yeux de la condamnation en elle-même.

Jusque là, je ne comprends pas trop ce que tu veux dire ni où tu veux en venir. En tout cas, ce n’est pas du tout clair pour moi.

Floriane a écrit :

Où je veux en venir ? Qu'on ne demande pas aux gens d'avoir une morale (et une éthique on s'en moque encore plus) mais de respecter scrupuleusement ce qui est écrit arbitrairement dans le code civil.

Oui, et alors ?

Si tu sous-entends par là que certaines lois ne seraient pas forcément « morales » (au sens d’une distinction entre un certain "Bien" et un certain "Mal"), pas de souci avec ça : cela me paraît une évidence surtout si tu considères leur établissement à travers une lecture marxiste de l’Histoire. A savoir qu'en droit public comme en droit privé, des lois peuvent être conçues par ceux à qui elles peuvent profiter en premier aux dépens des plus faibles ou des moins bien informés.

Un seul exemple qui peut paraître pas très « moral » en matière de droit privé : tu souscris un contrat d’assurance auto auprès d’un nouvel assureur. Dans le contrat, il t’est demandé si tu as eu des accidents auparavant, lesquels et avec quels assureurs. Tu es un bon conducteur, tu n’as rien à signaler et tu coches la case « néant ». Et puis quelques jours plus tard te voilà impliqué  dans un accident grave, tu renverses un piéton en lui causant de graves préjudices physiques, il risque d’être handicapé à vie. De grosses sommes sont en jeu. Tu te tournes alors vers ton assureur pour la prise en charge du sinistre. Oui mais : ton assureur fait alors des recherches approfondies et il va trouver que, 20 ans auparavant, tu avais déclaré auprès d’un autre assureur, une petite aile froissée pour un préjudice matériel de rien du tout. Chose qu’en toute bonne foi, tu avais carrément oubliée de déclarer le jour de ta dernière souscription d'assurance. Ton dernier assureur peut alors t’opposer une « fausse déclaration au moment de la souscription d’assurance. Nullité article 21. » Tu n’es plus couvert et ton dossier est renvoyé au Fonds de Garantie Automobile qui va se substituer à toi dans un premier temps en indemnisant la victime, puis qui se tournera vers toi pour que tu payes pendant des années, par mensualités. Tu auras alors de quoi tomber de haut quand on t’annoncera cela mais on t’opposera que « nul n’est censé ignorer la loi » et qu’il fallait lire dans le détail le contrat d’assurance. Ainsi le diable se cache dans les détails de tel ou tel article quand tu souscris un contrat d’assurance auto auprès de ton assureur.

Floriane a écrit :

Mais dans les années à venir, comment on fera en sorte qu'un robot obéisse scrupuleusement aux lois, si ce dernier n'est pas totalement protégé contre une faille, un bug ? Est-ce qu'il sera coupable et dans quelle mesure ?

On peut se demander, du coup, où est la limite, et qui sera responsable en cas de défaillance. Surtout si les robots deviennent de plus en plus anonymes et autonomes dans quelques décennies, quelques siècles.

C’est un autre sujet qui pose le problème des responsabilités à établir dans le cas d’utilisation de l’intelligence artificielle. Sujet très compliqué où de nouvelles lois devront être établies. Probablement (nouvelle lecture marxiste de ma part) au profit des mieux informés, des plus puissants et de ceux qui auront intérêt à raquer le moins en cas de gros soucis. En gros, au profit donc des géants de la Silicon Valley comme Google/ Amazon/ Apple/ Microsoft etc. Il faut dire aussi qu’ils payent grassement leurs juristes !

Dernière modification par Compte anonymisé (Le 06/03/2018, à 19:24)

#582 Le 06/03/2018, à 14:35

side

Re : La p'tite heure du café philo

sucarno a écrit :

Un tueur tuera avec ou sans les lois !

Un tueur tuera peu importe si la majorité réprouve moralement un tel acte.


Floriane a écrit :
side a écrit :

Mais comme la justice doit être aveugle, elle ne peut pas condamner sur des bases morales mais seulement sur des bases légales.

Pourtant elle a comme base le code civil. C'est un peu contradictoire non ?

La loi, c'est juste une entourloupe pour ne pas faire dans la morale comme forme de jugement.


Floriane a écrit :

Sinon je suis dubitatif sur le fait que la morale doit rester en dehors du jugement : quand je vois des reportages à télévision, comment des juges parlent à des condamnés, à propos de leurs façons de se tenir, de s'habiller, de se présenter, de parler, je trouve que c'est bourré de morale.

Ça, c'est juste un problème entre la lettre et les faits.
Si la justice était véritablement neutre et impartiale comme elle prétend, ça se saurait. Et ça se verrait.


Floriane a écrit :

Je m'arrêtais juste sur le fait que l'on soit condamné pour le ne pas avoir respecté une loi, et tout ce qui est au delà, n'a pas d'importance aux yeux de la condamnation en elle-même.

Où je veux en venir ? Qu'on ne demande pas aux gens d'avoir une morale (et une éthique on s'en moque encore plus) mais de respecter scrupuleusement ce qui est écrit arbitrairement dans le code civil. N'importe quel robot pourrait respecter les lois, et d'un autre côté pourrait devenir hors la loi.

C'est le seul moyen d'objectiver le droit. La morale est trop subjective, il faut transcrire cela sous forme de lois. Lois sensément démocratiques, d'où que nul n'est sensé l'ignorer et que nul ne peut s'y soustraire. Mais bien entendu, tout ça, c'est sur le papier.

Dernière modification par side (Le 06/03/2018, à 14:39)


« Je ne suis pas une adversaire de l’Europe, je me sens européenne. Je voudrais qu’il y ait des accords entre les nations librement consentis, c’est cette Europe-là que je veux voir émerger et je souhaite que la France soit à l’origine de ce beau projet, de cette belle initiative » - Marine Le Pen - 25 Avril 2017 - TF1

Hors ligne

#583 Le 06/03/2018, à 14:43

LeJediGris

Re : La p'tite heure du café philo

Salut,

Jackpot a écrit :

C’est un autre sujet qui pose le problème des responsabilités à établir dans le cas d’utilisation de l’intelligence artificielle. Sujet très compliqué où de nouvelles lois devront être établies.

Ca a déjà été fait, et depuis longtemps, par un certain Isaac Asimov, et c'est une base sur laquelle les chercheurs en robotique s'accordent le plus souvent.

A+


%NOINDEX%
Matos Asus Zenbook
"Home Made" Monstro: core i7 9700+32Go de mémoire+SSD QVO Samsung 1To +MoBo Asus Prime Z390P
+ "Terminator", core i5 3570, 16Go, SSD Intel 520 sous Mint 19.3, Freebox Revolution

Hors ligne

#584 Le 06/03/2018, à 19:41

Compte anonymisé

Re : La p'tite heure du café philo

LeJediGris a écrit :

Salut,

Jackpot a écrit :

C’est un autre sujet qui pose le problème des responsabilités à établir dans le cas d’utilisation de l’intelligence artificielle. Sujet très compliqué où de nouvelles lois devront être établies.

Ca a déjà été fait, et depuis longtemps, par un certain Isaac Asimov, et c'est une base sur laquelle les chercheurs en robotique s'accordent le plus souvent.

A+

Non. Pas aussi simple.

1)

Oubliez les lois d'Asimov : le robot assistant de vie devra répondre à 5 commandements
Les 5 commandements du robot assistant de vie
Voilà pourquoi Laurence Devillers imagine de prescrire pour les robots "5 commandements", qui vont au-delà des lois classiques d’Asimov (lire encadré ci-dessous), et peuvent s’énoncer ainsi : "Premier commandement : tu ne divulgueras pas mes données à n’importe qui. Deuxième commandement : tu pourras oublier [quelque chose] si je te le demande. Troisième commandement : tu apprendras et suivras les règles de la société. Quatrième commandement : tu seras loyal et capable d’expliquer tes décisions. Enfin, le cinquième, tu seras bienveillant et utile. Et pourquoi pas, doué d’un peu d’humour !"

https://www.sciencesetavenir.fr/high-te … nts_104992


2)

A quelle réglementation est-il soumis notamment en matière de responsabilité ?
« Aujourd’hui, il n’y a aucune réglementation spécifique pour les robots que Softbank Robotics fabrique. Cela ne signifie aucunement qu’un vide juridique existe.
Comme tous les autres objets manufacturés, ils sont, par exemple, soumis à la responsabilité des produits défectueux - articles 1245 et suivants du code civil
Il convient toutefois de se questionner pour savoir si la législation applicable peut être améliorée ou si au regard des spécificités de la robotique, des aménagements sont souhaitables.

https://humanite.fr/droit-de-la-robotiq … -ses-actes


3)

Reste que, en cas de dommage physique ou matériel, la responsabilité des robots autonomes s'avère particulièrement complexe à déterminer : s'agit-il du programmeur, du fabricant, de l'utilisateur, voire du robot lui-même ? « Si le robot est autonome, cela veut dire qu'il décide en dehors de nous, résume Jean Tournoux, délégué général du Symop. Aujourd'hui, l'intégrateur et le roboticien sont responsables. Demain, on risque d'avoir plus de mal à trouver des responsabilités, et donc à savoir qui va réparer les dommages. "

https://www.lesechos.fr/25/10/2016/LesE … bots--.htm

#585 Le 07/03/2018, à 09:05

LeJediGris

Re : La p'tite heure du café philo

Salut,

Non je persiste, cela doit rester extrêmement simple comme le décrit Asimov. Relis bien ces trois lois. Après il y a la loi zéro (concernant la priorité à l'humanité) mais qui reste quand même ambigüe, d'ailleurs c'est le sujet de son livre qui a inspiré le film éponyme. Enfin permets-moi de relativiser les sources que tu cites...

A+


%NOINDEX%
Matos Asus Zenbook
"Home Made" Monstro: core i7 9700+32Go de mémoire+SSD QVO Samsung 1To +MoBo Asus Prime Z390P
+ "Terminator", core i5 3570, 16Go, SSD Intel 520 sous Mint 19.3, Freebox Revolution

Hors ligne

#586 Le 07/03/2018, à 09:14

phiobert

Re : La p'tite heure du café philo

C'est très simple en effet :

la responsabilité des actes commis par un robot est due au propriétaire du robot ! Point !

Quiconque dispose d'un robot et en fait usage dans la sphère privée ou l'espace public en est totalement responsable.

Un article du Code de la Route résume bien ce genre de responsabilité : «tout conducteur doit rester maître de son véhicule» transcription aux robots vraiment facile !

Hors ligne

#587 Le 07/03/2018, à 13:35

Compte anonymisé

Re : La p'tite heure du café philo

LeJediGris a écrit :

Salut,

Non je persiste, cela doit rester extrêmement simple comme le décrit Asimov.

A+

phiobert a écrit :

C'est très simple en effet :

Repassons ces fameuses 3 lois en revue.

Asimov a écrit :

Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;

https://forum.ubuntu-fr.org/img/smilies/hmm.png

1) Bien. Mais comment pouvez-vous imaginer une seule seconde que tous les robots du monde vont être crées juste pour nous faire du bien ? Il y aura des robots créés pour porter atteinte au genre humain.

2) C’est faire peu de cas de l’autonomie des robots qui deviendra de plus en plus étendue et opérationnelle. Revoyez donc celle de l'ordinateur Karl, dans l’"Odyssée de l’espace" de Kubrick : ce qui est imaginé là, ce ne sera pas toujours que de la science fiction !

Asimov a écrit :

Un robot doit obéir aux ordres qui lui sont donnés par un être humain,

LOL ! Tant que l’être humain pourra en assurer la totale maîtrise.

Asimov a écrit :

un robot doit protéger son existence

Un robot pourra un jour décider de s’auto-détruire dans telle ou telle situation donnée. Il y aura des robots kamikaze. Et pas seulement programmés pour cela : non, parce qu'ils l'auront décidé eux-mêmes.

Tout cela pourquoi ? Parce que les robots ne peuvent être créés qu’à l’image de l’homme qui les crée. Et ils finiront par dépasser leurs créateurs.

LeJediGris a écrit :

Salut,

Enfin permets-moi de relativiser les sources que tu cites...

A+

Elle me paraissent plus actuelles et plus réalistes que la tiennes qui ne relève, à mes yeux, que d'une profession de foi bien idéaliste, bien utopique et qui sera vite dépassée dans la réalité et dans les faits futurs.



phiobert a écrit :

C'est très simple en effet :

la responsabilité des actes commis par un robot est due au propriétaire du robot ! Point !

Si c'était aussi simple ! Et pas la peine de taper du poing sur la table ni de s'énerver ! Relis de plus près mon post ci-dessus ! Et encore ce que j'ai cité ce n'est rien par rapport à tous ce que les juristes pourront inventer dans le futur !

#588 Le 07/03/2018, à 14:18

phiobert

Re : La p'tite heure du café philo

jackpot a écrit :

Si c'était aussi simple ! Et pas la peine de taper du poing sur la table ni de s'énerver !

J'ai écrit «point » pas «poing» ! tongue

La responsabilité incombe généralement au propriétaire :

ex :
mon arbre s'abat sur le toit du voisin, je suis responsable civilement.
ma voiture garée dans la rue en pente se met à dévaler subitement la pente et elle défonce une autre, je suis responsable civilement.
mon visiteur se casse une jambe sur mon parquet ciré, je suis responsable civilement.
mon chien mord le facteur, je suis responsable civilement.
mon médicament (je suis un labo pharma) empoisonne des patients, je suis responsable civilement.
mon auto fait un excès de vitesse devant un radar, en tant que propriétaire du véhicule, faute de dénoncer un conducteur,  je suis responsable civilement.
etc...

Dernière modification par phiobert (Le 07/03/2018, à 14:23)

Hors ligne

#589 Le 08/03/2018, à 08:28

Compte anonymisé

Re : La p'tite heure du café philo

A la vitesse où vont les choses, on ne peut pas parler de l'IA et de ses applications, sans se reporter au futur, au futur proche et plus lointain. Qui peut dire comment sera réglée la question des responsabilités et de la législation concernant la robotique en 2030 ? En 2040 ? En 2050 ? Et y aura-t-il des législations à l'échelle mondiale (ce dont on peut douter) ou à l'échelle des états (ce qui sera plus vraisemblable) ? D'où de très prévisibles casse-tête juridiques en cas de litiges.

Vois déjà, à l'heure actuelle et dans un tout autre domaine, le casse-tête de l'héritage de Johnny où deux législations (la nôtre et celle des Etats-Unis) vont devoir s'affronter pour régler la question :ça va prendre des années et faire le bonheur des avocats des deux parties.

#590 Le 08/03/2018, à 09:45

phiobert

Re : La p'tite heure du café philo

jackpot a écrit :

A la vitesse où vont les choses, on ne peut pas parler de l'IA et de ses applications, sans se reporter au futur, au futur proche et plus lointain. Qui peut dire comment sera réglée la question des responsabilités et de la législation concernant la robotique en 2030 ? En 2040 ? En 2050 ? Et y aura-t-il des législations à l'échelle mondiale (ce dont on peut douter) ou à l'échelle des états (ce qui sera plus vraisemblable) ? D'où de très prévisibles casse-tête juridiques en cas de litiges.

IA ou pas tout mécanisme appartient à une personne morale ou physique et le propriétaire (voire l'usager) engage sa propre responsabilité.

Nous ne verrons jamais une IA s'appartenir elle-même : laissons la science-fiction au cinéma et à la littérature.




jackpot a écrit :

Vois déjà, à l'heure actuelle et dans un tout autre domaine, le casse-tête de l'héritage de Johnny où deux législations (la nôtre et celle des Etats-Unis) vont devoir s'affronter pour régler la question :ça va prendre des années et faire le bonheur des avocats des deux parties.

Ceci n'a rien à voir et a existé de tous temps. La responsabilité civile et le choix des dernières volontés sont très éloignés en droit.

Hors ligne

#591 Le 08/03/2018, à 18:25

Compte anonymisé

Re : La p'tite heure du café philo

phiobert a écrit :

Nous ne verrons jamais une IA s'appartenir elle-même

On refait le point en 2050. Et peut-être même avant...

phiobert a écrit :

laissons la science-fiction au cinéma et à la littérature.

La science fiction et la littérature ont imaginé de nombreux événements qui se sont réalisés plus tard. "De la Terre à la Line" de Jules Verne, "1984" de George Orwell etc etc...

phiobert a écrit :
jackpot a écrit :

Vois déjà, à l'heure actuelle et dans un tout autre domaine, le casse-tête de l'héritage de Johnny où deux législations (la nôtre et celle des Etats-Unis) vont devoir s'affronter pour régler la question :ça va prendre des années et faire le bonheur des avocats des deux parties.

Ceci n'a rien à voir et a existé de tous temps. La responsabilité civile et le choix des dernières volontés sont très éloignés en droit.

Cela a tout à fait avoir au niveau des complexités juridiques qui se poseront avec la mondialisation de la robotique et la recherche des responsabilités notamment dans le domaine des conflits militaires. Je citais l'exemple des dernières volontés distinctement mais juste pour faire le parallèle avec le casse-tête juridique.

Dernière modification par Compte anonymisé (Le 08/03/2018, à 18:31)

#592 Le 09/03/2018, à 00:26

Comptesupprimé

Re : La p'tite heure du café philo

side a écrit :

C'est le seul moyen d'objectiver le droit. La morale est trop subjective, il faut transcrire cela sous forme de lois. Lois sensément démocratiques, d'où que nul n'est sensé l'ignorer et que nul ne peut s'y soustraire. Mais bien entendu, tout ça, c'est sur le papier.

C'est bien là que je voulais en venir. Je pense que c'est aussi par ce chemin que ça avance, devrais-je dire, que ça se meut.

Enfin cette "brèche" qu'il faut utiliser, pour avancer.

----------

Sinon pour les robots :

J'imagine que dans quelques centaines d'années (voir moins) on sera pas capable d'identifier le propriétaire d'un robot. Il faudra alors trouver des nouvelles lois (recyclage, destruction...) pour les robots qui seront en "liberté".

Il ne s'agit pas là de science fiction, et si aucun propriétaire pourra être trouvé, il faudra bien faire quelque chose. Mais on peut comprendre où ça va aller de toute manière...

#593 Le 09/03/2018, à 13:12

phiobert

Re : La p'tite heure du café philo

jackpot a écrit :
phiobert a écrit :

Nous ne verrons jamais une IA s'appartenir elle-même

On refait le point en 2050. Et peut-être même avant...

Chiche !

Tu te fais des illusions.



jackpot a écrit :
phiobert a écrit :

laissons la science-fiction au cinéma et à la littérature.

La science fiction et la littérature ont imaginé de nombreux événements qui se sont réalisés plus tard. "De la Terre à la Line" de Jules Verne, "1984" de George Orwell etc etc...

Mais c'est évident, on peut prévoir les possibles et ce n'est pas dû à la science fiction mais seulement à la foi en la science.






jackpot a écrit :
phiobert a écrit :
jackpot a écrit :

Vois déjà, à l'heure actuelle et dans un tout autre domaine, le casse-tête de l'héritage de Johnny où deux législations (la nôtre et celle des Etats-Unis) vont devoir s'affronter pour régler la question :ça va prendre des années et faire le bonheur des avocats des deux parties.

Ceci n'a rien à voir et a existé de tous temps. La responsabilité civile et le choix des dernières volontés sont très éloignés en droit.

Cela a tout à fait avoir au niveau des complexités juridiques qui se poseront avec la mondialisation de la robotique et la recherche des responsabilités notamment dans le domaine des conflits militaires. Je citais l'exemple des dernières volontés distinctement mais juste pour faire le parallèle avec le casse-tête juridique.

Alors toute complication a à voir avec la responsabilité de l'IA.


L'IA n'apporte pas plus de complexité au droit que l'automobile n'en a apporté à la fin du XIXeme siècle quand il fallu décider des responsabilités entre automobiles, véhicules hippomobiles et piétons. On mesure mal ce que fut cette révolution de véhicules sans chevaux.

Dernière modification par phiobert (Le 09/03/2018, à 13:13)

Hors ligne

#594 Le 12/03/2018, à 08:47

Compte anonymisé

Re : La p'tite heure du café philo

phiobert a écrit :
jackpot a écrit :
phiobert a écrit :

Nous ne verrons jamais une IA s'appartenir elle-même

On refait le point en 2050. Et peut-être même avant...

Chiche !

Tu te fais des illusions.

Je suis simplement réaliste. Sur cette question, toi c'est : point barre, circulez y a plus rien à voir. Moi c'est : virgule, next... on n'a pas fini d'être étonnés.


phiobert a écrit :

Mais c'est évident, on peut prévoir les possibles et ce n'est pas dû à la science fiction mais seulement à la foi en la science.

Les auteurs de science-fiction ont souvent bien plus d'imagination que les scientifiques. Comme ils sont eux aussi forcément épris de science, en ce sens on peut dire qu'ils sont plus complets que les scientifiques.

phiobert a écrit :

L'IA n'apporte pas plus de complexité au droit que l'automobile n'en a apporté à la fin du XIXeme siècle quand il fallu décider des responsabilités entre automobiles, véhicules hippomobiles et piétons. On mesure mal ce que fut cette révolution de véhicules sans chevaux.

Nous n'en savons rien pour une simple et bonne raison : c'est que l'IA n'en est qu'à ses tout débuts. Par ailleurs, si on prend en compte le développement effréné et sans limites des libertés individuelles dans notre monde libéral et hyper capitaliste et des problèmes de frictions qu'il pose dans le « vivre ensemble », on ne peut constater qu'une chose : c'est la judiciarisation de plus en plus forte et de plus complexe de nos sociétés. En fait, les gens ne se supportent plus et se font des procès pour des riens.


Edit 
: A propos de cette discussion sur les robots et l'IA, quand j'observe la manière dont se comporte certaines personnes autour de moi, je me demande si elles ne fonctionnent pas déjà comme... des robots ! Je devrais d'ailleurs m'inclure parfois dans ce lot. Sauf qu'il m'arrive de prendre du recul. Gestes mécaniques, bien rythmés, bien saccadés, mille fois répétés, sans âme... En admettant que ce qui distinguerait essentiellement les robots de l'être humain serait la différence entre intelligence et conscience, je me demande si dans nos vies modernes de tous les jours nous n'avons pas tendance à "fonctionner" 80 % du temps, de manière mécanique, avec bien plus d'intelligence que de conscience ! Bref : nous serions déjà pas mal des robots ! Et nous ne ferions que concevoir des robots à notre image !

#595 Le 12/03/2018, à 08:55

phiobert

Re : La p'tite heure du café philo

jackpot a écrit :

Edit : A propos de cette discussion sur les robots et l'IA, quand j'observe la manière dont se comporte certaines personnes autour de moi, je me demande si elles ne fonctionnent pas déjà comme... des robots ! Je devrais d'ailleurs m'inclure parfois dans ce lot. Sauf qu'il m'arrive de prendre du recul. Gestes mécaniques, bien rythmés, bien saccadés, mille fois répétés, sans âme... En admettant que ce qui distinguerait essentiellement les robots de l'être humain serait la différence entre intelligence et conscience, je me demande si dans nos vies modernes de tous les jours nous n'avons pas tendance à "fonctionner" 80 % du temps, de manière mécanique, avec bien plus d'intelligence que de conscience ! Bref : nous serions déjà pas mal des robots ! Et nous ne ferions que concevoir des robots à notre image !

Et la tendresse, bordel ! wink

Tu frises la dépression ! hmm

Hors ligne

#596 Le 12/03/2018, à 09:26

Compte anonymisé

Re : La p'tite heure du café philo

phiobert a écrit :
jackpot a écrit :

Edit : A propos de cette discussion sur les robots et l'IA, quand j'observe la manière dont se comporte certaines personnes autour de moi, je me demande si elles ne fonctionnent pas déjà comme... des robots ! Je devrais d'ailleurs m'inclure parfois dans ce lot. Sauf qu'il m'arrive de prendre du recul. Gestes mécaniques, bien rythmés, bien saccadés, mille fois répétés, sans âme... En admettant que ce qui distinguerait essentiellement les robots de l'être humain serait la différence entre intelligence et conscience, je me demande si dans nos vies modernes de tous les jours nous n'avons pas tendance à "fonctionner" 80 % du temps, de manière mécanique, avec bien plus d'intelligence que de conscience ! Bref : nous serions déjà pas mal des robots ! Et nous ne ferions que concevoir des robots à notre image !

Et la tendresse, bordel ! wink

Tu frises la dépression ! hmm

Non, simplement c'est que Science sans Conscience n’est que ruine de l’âme .

Dernière modification par Compte anonymisé (Le 12/03/2018, à 09:27)

#597 Le 12/03/2018, à 09:37

Compte anonymisé

Re : La p'tite heure du café philo

phiobert a écrit :

Et la tendresse, bordel ! ;)

Ah oui, la tendresse ! Belle chanson assurément !

Oui mais :

Le nombre de divorces varie d’une année sur l’autre, mais en moyenne ce sont près de 130 000 divorces qui sont prononcés chaque année. Il y a 1,8 mariages pour 1 divorce.
(...)
Autre chiffre qui révèle l’importance du divorce en France : près de 45% des mariages finissent par un divorce.

https://www.jurifiable.com/conseil-juri … atistiques

phiobert a écrit :

Tu frises la dépression ! :/

Tu confonds dépression avec lucidité, réalisme et rationalité. Trois composantes qui n'empêchent pas de demeurer serein et de bien profiter de la vie.

Dernière modification par Compte anonymisé (Le 12/03/2018, à 09:40)

#598 Le 12/03/2018, à 10:55

phiobert

Re : La p'tite heure du café philo

jackpot a écrit :
phiobert a écrit :

Et la tendresse, bordel ! wink

Ah oui, la tendresse ! Belle chanson assurément !

Oui mais :

Le nombre de divorces varie d’une année sur l’autre, mais en moyenne ce sont près de 130 000 divorces qui sont prononcés chaque année. Il y a 1,8 mariages pour 1 divorce.
(...)
Autre chiffre qui révèle l’importance du divorce en France : près de 45% des mariages finissent par un divorce.

https://www.jurifiable.com/conseil-juri … atistiques

Tu sais il n'y a pas que le mariage pour imager la tendresse.

Que penses-tu de la tendresse d'un(e) p(m)ère envers son(ses) enfants(s) et réciproquement, d'un humain envers un animal et réciproquement...

J'ai parlé de tendresse mais j'aurais aussi pu évoquer la passion, sensibilité, l'empathie pour exprimer ce que l'humanité ne partagera pas avec l'IA.

Sans compter a contrario tous les mauvais sentiments, tous les penchants noirs, les pulsions destructrices...

Dernière modification par phiobert (Le 12/03/2018, à 11:02)

Hors ligne

#599 Le 12/03/2018, à 12:42

pierrecastor

Re : La p'tite heure du café philo

Salut

J'intervient sur ce topic car l'IA et la robotique sont des sujet qui m'interesse.

J'ai parlé de tendresse mais j'aurais aussi pu évoquer la passion, sensibilité, l'empathie pour exprimer ce que l'humanité ne partagera pas avec l'IA.

Qu'en sais tu ? Qu'en savont nous, je doute fortement que beaucoup de gens sur terre soient capable de prédire les progrès et les évolutions futur dans le domaines des intelligences artificiel.

Je prend un exemple dans la SF (Le cycle de la longue terre, de Pratchett et Baxter), si un jour, une IA prétend qu'elle est humaine, et qu'en discutant avec elle, elle fait montre de tout les domaines possible de réactions tout à fait humaine, genre capable de passer un super test de turring. On continue de la considerer comme un bien meuble ? Ou lui accorde des droits ?

On retrouve le même questionnement dans les films Ghost in the Shell, Blade Runner, Ex Machina ou même Chappie.

Alors oui, ça n'est que de la SF, malgré les articles laudatifs de la presse sur les progrès des IA, on est encore très très loin de ce stade. Mais il arrivera peu être un jour (ou peu être pas), et je trouve intéressant de se poser ces questions avant d'être confronter à ce genre de problème.


Oui c'est bien plus ouf et c'est bien bandant
Courir nu la bite à l'air, courir nue la fouffe au vent
Ludwig von 88 - Fracas

Hors ligne

#600 Le 12/03/2018, à 13:02

side

Re : La p'tite heure du café philo

1520856106.jpg


Edit :

pierrecastor a écrit :

je trouve intéressant de se poser ces questions avant d'être confronter à ce genre de problème.

Quand bien même nous ne serons jamais confronté à ce genre de problèmes se poser ces questions reste utile car en réalité, les réponses qu'on y apporte nous parle de nous, les êtres humains, avant même d'aborder le statut d'une possible I.A.
Pour s'en convaincre suffit de faire une petite historiographie de ce que pense l'homme de l'I.A depuis qu'il y pense. Et on constatera que chaque réponse est liée à son contexte historique et sociologique.

Dernière modification par side (Le 12/03/2018, à 13:07)


« Je ne suis pas une adversaire de l’Europe, je me sens européenne. Je voudrais qu’il y ait des accords entre les nations librement consentis, c’est cette Europe-là que je veux voir émerger et je souhaite que la France soit à l’origine de ce beau projet, de cette belle initiative » - Marine Le Pen - 25 Avril 2017 - TF1

Hors ligne