-
Zaphod Beeblebrox ^^".
User deleted
Sto leggendo il libro usato in tutto il mondo nei corsi di intelligenza artificiale, ché il prof mi ha consigliato di leggere primo e ultimo capitolo (sullo stato attuale della ricerca e sulle implicazioni filosofiche e morali di sta roba) e ghghgggghggg. CITAZIONEThe claims of functionalism are illustrated most clearly by the brain replacement ex- periment. This thought experiment was introduced by the philosopher Clark Glymour and was touched on by John Searle (1980), but is most commonly associated with roboticist Hans Moravec (1988). It goes like this: Suppose neurophysiology has developed to the point where the input–output behavior and connectivity of all the neurons in the human brain are perfectly understood. Suppose further that we can build microscopic electronic devices that mimic this behavior and can be smoothly interfaced to neural tissue. Lastly, suppose that some mirac- ulous surgical technique can replace individual neurons with the corresponding electronic devices without interrupting the operation of the brain as a whole. The experiment consists of gradually replacing all the neurons in someone’s head with electronic devices.
We are concerned with both the external behavior and the internal experience of the subject, during and after the operation. By the definition of the experiment, the subject’s external behavior must remain unchanged compared with what would be observed if the operation were not carried out.3 Now although the presence or absence of consciousness cannot easily be ascertained by a third party, the subject of the experiment ought at least to be able to record any changes in his or her own conscious experience. Apparently, there is a direct clash of intuitions as to what would happen. Moravec, a robotics researcher and functionalist, is convinced his consciousness would remain unaffected. Searle, a philosopher and biological naturalist, is equally convinced his consciousness would vanish:CITAZIONEYou find, to your total amazement, that you are indeed losing control of your external behavior. You find, for example, that when doctors test your vision, you hear them say “We are holding up a red object in front of you; please tell us what you see.” You want to cry out “I can’t see anything. I’m going totally blind.” But you hear your voice saying in a way that is completely out of your control, “I see a red object in front of me.” . . . your conscious experience slowly shrinks to nothing, while your externally observable behavior remains the same. (Searle, 1992)
Terrificante. Sto ancora alla parte sugli aspetti filosofici, non vedo l'ora di arrivare a quelli morali. Mi aspetto grandi traumi.. -
Zaphod Beeblebrox ^^".
User deleted
CITAZIONELet an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control.. -
.
Sì però gli aspetti tecnici sono più urgenti di quelli morali. Cè voglio dire, come fanno a far arrivare il segnale di un neurone artificiale a un muscolo? Dovrebbero squartare le persone... Oppure si fermerebbero al livello della corteccia (e magari anche agli organi sottocorticali) senza replicare il midollo spinale con tutti i nervi ai muscoli? Quello che penso è che allora ci sarebbe un punto preciso in cui cesserebbero di essere presenti neuroni fisici e inizierebbero sinapsi artificiali. Ma ogni neurone finisce in un punto diverso e, cè, non puoi interrompere i segnali afferenti e efferenti a cazzo Cè non me lo riesco proprio a immaginare... Poi tu pensa che questa persona perfettamente funzionante andrebbe incontro a un deperimento fisico con il corpo che gli si imputridisce mentre lui è ancora al 100% delle sue potenzialità E poi tecnicamente i neuroni sono plastici. Quelli artificiali funzionerebbero ugualmente o avrebbero un differente funzionamento? btw come fai a rendere docile una macchina. Dal momento che è complessa tanto quanto l'uomo o addirittura più complessa ogni comportamento deriverebbe dall'integrazione nelle aree associative di segnali provenienti da più parti del cervello, insomma non esisterebbe l'area "cattiva" da inibire. Ma come faiiiiiiiiiiiii a controllarlo impossibru.
Pensa a un futuro senza uomo, dove la macchina ci ha soppiantati, ma è talmente sviluppata da provare sentimenti, avere patologie, ecc...: uno scienziato pazzo potrebbe creare una macchina cosciente con l'organizzazione topografica di una persona ma la conformazione fisica di un frigorifero. "Disforia di genere" nel futuro anno 5500 d.c. E poi le macchine farebbero film horror in stile the human centipede però mille volte più raccapriccianti perché puoi far vivere una macchina in ogni modo possibile.
Raccapriccio e orrore
Forse non so, forse rinuncerebbero alle emozioni. Ho l'impressione che una macchina senza emozioni non abbia motivo di riprodursi sulla terra. Secondo me deciderebbero di spegnersi.SPOILER (clicca per visualizzare)Dramma nel futuro anno 5500 d.c.. -
Zaphod Beeblebrox ^^".
User deleted
Boh non lo so il primo è un esperimento mentale e l'esempio del filosofo mi ha rabbrividito. Chissene come lo faranno, spero non si faccia mai. Cmq sto libro parla di possibilità esageratamente avanti nel futuro, tipoCITAZIONEIf robots become conscious, then to treat them as mere “machines” (e.g., to take them apart) might be immoral
"ma io volevo solo mettere quattro giga in più di ram" disse l'uomo sulla sedia elettrica condannato a morte per computericidio e mutilazioni multipleCITAZIONEif technology had allowed us to design a super-powerful AI agent in 1800 and endow it with the prevailing morals of the time, it would be fighting today to reestablish slavery and abolish women’s right to voteCITAZIONEif we build an AI agent today and tell it to evolve its utility function, how can we assure that it won’t reason that “Humans think it is moral to kill annoying insects, in part because insect brains are so primitive. But human brains are primitive compared to my powers, so it must be moral for me to kill humans.”
E poi ci sono citazioni del tutto a caso che mettono i brividi.CITAZIONESome accept that computerization leads to a loss of privacy—Sun Microsystems CEO Scott McNealy has said “You have zero privacy anyway. Get over it.”CITAZIONE“A science is said to be useful if its development tends to accentuate the existing inequalities in the distribution of wealth, or more directly promotes the destruction of human life.”
E altri scenari apocalittici gratuiti. Tipo sull'ipotesi di Riemann si basano un bordello di teoremi, e non si sa neanche se è dimostrabile.CITAZIONEMarvin Minsky once suggested that an AI program designed to solve the Riemann Hypothesis might end up taking over all the resources of Earth to build more powerful supercomputers to help achieve its goal
E poi questaCITAZIONEone of the central dreams of computer science is that “through the performance of computers and their programs we will remove all doubt that there is only a chemical distinction between the living and nonliving world.”
Nel complesso l'intelligenza artificiale mi sembra una congrega di alchimisti che cercano la formula della pietra filosofale. O il signor Frankenstein.. -
.
benvenuta nel tragico mondo della bioetica!
L'etica intesa come disciplina è essenzialmente questo, un tunnel senza nessuna uscita precisa. apparte o il dottorato o incominciare a bere. di solito si fanno entrambe le cose. -
Zaphod Beeblebrox ^^".
User deleted
. -
.
volevo rispondere a kri non avevo voglia di quotare un papiro emmezzo . -
Zaphod Beeblebrox ^^".
User deleted
SPOILER (clicca per visualizzare)ok me ne vado. -
.
Rotfl CITAZIONEif technology had allowed us to design a super-powerful AI agent in 1800 and endow it with the prevailing morals of the time, it would be fighting today to reestablish slavery and abolish women’s right to voteSPOILER (clicca per visualizzare)Benvenuta de che, in proposito ho già dato l'esame di biogenetica, informatica, filosofia morale e ho appena finito di studiare un libro sulla morale per psico sociale. -
zoof.
User deleted
cavolo, dovevamo recuperare animatrix a velletri
fattelo recapitare insieme ai soldi affronta questioni inquietanti relative all'intelligenza artificiale, anche se magari non aggiunge niente di nuovo rispetto a cose che hai già letto visto sentito.
Però è fico a tratti angosciante
omg io credevo che Searle fosse un lingusita lo conoscevo come il divulgatore del concetto di "atto linguistico", che poi è collegato a quello che ti dicevo l'altro ieri sugli atti performativi (enunciati che compiono un'azione)
e comunque non mi fido di Searle , che basi ha la sua teoria per cui la coscienza e il comportamento osservabile andrebbero ognuno per conto proprio?
O forse sono io che non ho capito. Cioè se questi ipotetici neuroni artificiali trasmettono un messaggio, a cosa lo trasmettono? Se sono repliche esatte di neuroni biologici, allora perché dovrebbero funzionare in modo diverso? Cioè io voglio sentire che ha da dire un neurologo, non un filosofo, quelli sembra che non vedano l'ora di trovare intrippamenti nuovi
Ma soprattutto: come si può parlare di vita non organica? Non si può Io almeno non credo. Gli esseri viventi hanno una spinta vitale intrinseca che secondo me può venire solo dal fatto di essere organicamente vivi. E poi non è che siamo solo esseri viventi, siamo anche fatti di roba vivente. Siamo sovra-organismi fatti di sotto-organismi che hanno vita propria, siamo letteralmente cellule (e per qualche tempo siamo stati tutti due sole cellule fuse insieme ) e secondo me questo non è un fattore che possiamo trascurare, perché siamo spinti in avanti dal bisogno di tenere tutta questa vita IN VITA. Eravamo spinti (non mi viene una parola migliore ) quando eravamo grossi come gamberetti e siamo spinti ora che pensiamo seguendo strutture complesse. Poi credo che anche l'intelligenza abbia origine da questa spinta, certo non è nata dal nulla. Dobbiamo nutrirci e dobbiamo riprodurci, così come qualsiasi altro essere vivente, e tutto il resto viene da lì.
(dico cose banali? mi sa di sì )
Non è una questione linguistica, logica, matematica. Quindi non è programmabile, secondo me. Così come puoi programmare una macchina a seguire degli assiomi ma non a formularne.
mancherà sempre quel qualcosa nelle macchine
tipoCITAZIONEif we build an AI agent today and tell it to evolve its utility function, how can we assure that it won’t reason that “Humans think it is moral to kill annoying insects, in part because insect brains are so primitive. But human brains are primitive compared to my powers, so it must be moral for me to kill humans.”
è possibile che un computer possa formulare da sé dei sillogismi? Cioè data una base logica, può giungere a conclusioni in modo autonomo? Lo chiedo perché non lo so, non sono certa di quel che dico, sono ignorante in ciò di cui parlo e forse ignoro potenzialità e metodi alternativi e magie tecnologiche
qual è la cosa più indipendente che un computer abbia fatto fin ora?
cè zp, mi hai spiegato come fanno i computer, ma anche le calcolatrici , a fare calcoli elaborati in pochissimo tempo (e io faccio ancora fatica a capirlo ) e senza che sia stata programmata ogni singola risposta per ogni possible operazione. Quindi i calcolatori possono dare risposte nuove a domande nuove, ma non "pensano" al calcolo in modo logico, o sbaglio? Mi viene in mente Chomsky quando dice che la grammatica è una competenza del linguaggio umano che permette di creare frasi nuove, mai ascoltate prima e potenzialmente infinite.
Penso alla creatività della lingua e al fatto che la creatività sia prerogativa degli esseri viventi e penso che i computer non saranno mai "vivi" e penso che quindi non dovremo mai preoccuparci di essere schiacciati come insetti dai computer superiori del futuro.
e shh lasciatemi domire tranquilla stanotteCITAZIONEif technology had allowed us to design a super-powerful AI agent in 1800 and endow it with the prevailing morals of the time, it would be fighting today to reestablish slavery and abolish women’s right to vote
mi sa che mi sta sfuggendo il concetto di Super powerful AI, e di intelligenza in generale. Oppure è una citazione fuori luogo, dato che descrive un'intelligenza artificiale superiore mentre si comporta come farebbe un computer qualsiasi. Cioè restando uguale a come è stata programmata senza mutare autonomamente in base al cambiamento delle condizioni esterne.
Magari per capire avrei bisogno del contesto della citazione.
cmq che intrippo
ho rotolato 5 volte
posta moar
. -
.
Vabbè quando si parla di intelligenza artificiale mica ci si riferisce ai computer di oggi.
La spinta vitale o pensi che sia spirituale, se credi allo spirito, o pensi che sia chimica o elettrica.
Nel corpo umano il pensiero fondamentalmente si propaga attraverso le cellule tramite segnali chimici o elettrici.
Il punto cruciale è che un neurone può essere silente oppure scaricare > 0 / 1
L'unità fondamentale del cervello è il neurone e non è in grado di tenere informazioni qualitative in sé, solo quantitative, solo 0 o 1. Come un bit.
La coscienza o pensi che sia qualcosa di intangibile che ancora non abbiamo scoperto, o pensi che sia solo il frutto del lavoro del cervello. Ora un cervello organico o elettrico che sia è un cervello. Quello che lo rende capace di provare sentimenti è la sua complessità. I computer di oggi non sono vivi perché sono elementari. Ma se ne aumenti la complessità ne aumenti le funzioni.
I pensieri non vengono stabiliti dalla cellula viva, la cellula viva può solo polarizzarsi e depolarizzarsi a causa di fenomeni chimici. I pensieri derivano dalla struttura del cervello (genetica e regolazione genica) E dal suo modo di funzionare che è influenzato dall'epigenetica e dalle esperienze. (se pensi tanto a una cosa quella via si rafforza e diventa più accessibile a causa della plasticità del cervello)
Anche io mi domando come potrebbe funzionare la plasticità neuronale di una macchina, ma sono ignorante perché magari questo è l'ultimo dei problemi da porsi e sicuramente già esistono delle teorie...
Il fatto della sconnessione tra coscienza e comportamento neanche io l'ho capita... Forse si riferisce a un cervello in parte macchina e in parte umano? Sarebbe fattibile. Il comportamento funziona press'appoco così: i segnali sensoriali afferiscono alle rispettive cortecce primarie attraverso vari step, vengono integrati nelle aree associative, poi partono i messaggi motori che prima attraversano step intermedi e poi arrivano alla corteccia motoria primaria. Da lì arrivano ai muscoli attraverso altri step.
In tutto questo ancora non abbiamo scoperto esattamente in cosa consista la coscienza. Perché noi sappiamo quello che stiamo facendo?
Ecco, in questa ottica potremmo dire che cercando di costruire un cervello artificiale senza sapere come renderlo cosciente potrebbe effettivamente uscire fuori un macchinario che elabora soluzioni senza esserne consapevole... (e potremmo non scoprirlo neanche, perché se gli chiedi "sei cosciente?" lui potrebbe rispondere "sì", ma in maniera del tutto automatica)
Io suppongo.
Il tizio si chiede giustamente come questo macchinario potrebbe coesistere insieme a una parte di cervello umano cosciente, se ho capito bene.
Il cervello essendo plastico è cosciente anche se "provato". Nel senso che se togli metà cervello a una persona, quella continua a essere cosciente. E ci chiediamo come, come fa... Se quella metà fosse rimpiazzata da materiale artificiale, e se fosse proprio il materiale artificiale a controllare il comportamento, come potremmo far comunicare la parte organica con quella artificiale?
Questo già succede in realtà. Le persone con i due emisferi recisi sviluppano una sorta di doppia coscienza per cui un emisfero non è a conoscenza di quello che l'altro emisfero sta facendo. Penso sia una cosa del genere, ma invece di due coscienze umane più o meno separate (per fortuna non è proprio così) si avrebbe una coscienza umana più un elaboratore non cosciente. Potrebbe succedere ad esempio - ipotizzo - che la parte umana scopra cosa fa l'elaboratore solo attraverso la vista, e sia incapace di comunicare con esso o di sapere a cosa sta pensando. Anche se poi ci sono numerosi feed-back nel cervello e ad esempio alcuni messaggi motori arrivano alla corteccia sensitiva primaria
Ma la mia personale immaginazione sulla questione mi dice due cose:
1 Se riuscissimo a creare un cervello artificiale complesso tanto quanto quello umano, questo sarebbe automaticamente cosciente perché per me la coscienza deriva dalla struttura (che ovviamente deve essere ottimale, basta ricopiare il cervello) e dalla complessità
2 Se così non fosse allora dovremmo rassegnarci all'idea che siamo noi quegli elaboratori ai quali chiedi: "sei cosciente" e ti rispondono "sì". Le nostre risposte comportamentali sono frutto di calcoli e niente più. Ci illudiamo di poter decidere.. -
Zaphod Beeblebrox ^^".
User deleted
omg io credevo che Searle fosse un lingusita lo conoscevo come il divulgatore del concetto di "atto linguistico", che poi è collegato a quello che ti dicevo l'altro ieri sugli atti performativi (enunciati che compiono un'azione)
e comunque non mi fido di Searle , che basi ha la sua teoria per cui la coscienza e il comportamento osservabile andrebbero ognuno per conto proprio?
O forse sono io che non ho capito. Cioè se questi ipotetici neuroni artificiali trasmettono un messaggio, a cosa lo trasmettono? Se sono repliche esatte di neuroni biologici, allora perché dovrebbero funzionare in modo diverso? Cioè io voglio sentire che ha da dire un neurologo, non un filosofo, quelli sembra che non vedano l'ora di trovare intrippamenti nuovi
La gente di AI fa distinzione fra "weak AI" e "strong AI", cioè nel chiedersi se intelligenza artificiale (intesa come "artefatto intelligente", ossia un oggetto meccanico creato dall'uomo che mostra "intelligenza") sia possibile o meno spezzano la domanda in due: è possibile creare qualcosa che si comporti in maniera intelligente? È possibile creare qualcosa che sia realmente intelligente?
La prima domanda è chiedersi se esiste la "weak AI", e la gente del settore risponde sempre sì (qualche filosofo dice di no). Del fatto che sia possibile creare una intelligenza debole ci sono prove a piovere, a partire dai motori di ricerca che usano sistemi sofisticatissimi intelligenti nel senso che sono in grado di imparare, evolversi, adattarsi (anche con l'aiuto di esterni ), fino a boh le macchine che si guidano da sole che stanno sperimentando negli stati uniti, che sono tipo assurde, in grado di capire dove sono le persone e le macchine e le bici e di rispettare le regole della strada.
L'altra domanda è quella interessante (secondo me). Già il fatto che non si sappia definire bene cosa sia l'intelligenza è fichissimo.
Tipo: un tizio (forse proprio Searle) fa l'esempio della "scatola cinese", che è una stanza con un uomo che conosce solo l'inglese che ha però degli ottimi manuali per tradurre dal cinese all'inglese. Dentro la scatola la gente mette fogli in cinese, questo consulta i suoi libri (chi sta fuori non sa cosa ci sia dentro la scatola, eh), scrive la risposta (in cinese) su un foglietto e la rimanda fuori. Senza sapere niente di cinese. E gli oppositori all'idea di strong AI dicono: questo uomo sa il cinese? No. Ma i contro oppositori dicono: la scatola nel complesso però sa il cinese. E aggiungono: l'acqua è bagnata, ma l'idrogeno e l'ossigeno no. Quindi non contano le componenti, l'uomo e i libri e le penne e i fogli non sanno il cinese, ma nel complesso formano un sistema che senza ombra di dubbio sa il cinese (se "sapere il cinese" vuol dire saper tenere una conversazione -scritta- in cinese).
E boh. Stessa cosa con l'intelligenza artificiale: come facciamo a capire se un computer che si comporta in maniera intelligente sia davvero intelligente? Ci sta gente che dice, "non saprà mai scrivere una sinfonia con consapevolezza di averla scritta". E tipo Turing risponde che la domanda sulla consapevolezza si può rigirare a tutti gli esseri umani: nessuno ha nessuna prova della consapevolezza (consciousness) degli altri. Ma adottiamo un atteggiamento "polite" (lole) nell'assumere che tutti pensano (anche se...), e Turing chiede di adottare lo stesso atteggiamento con le macchine.
E da questo viene l'idea di Turing del test (di Turing), ossia fare tipo Blade Runner, mettere un "esperto" a comunicare (per iscritto) con un computer e con una persona, e vedere se l'esperto riesce a riconoscere chi è la persona e chi il computer. Se il computer vince nel 30% delle volte, secondo Turing mostra dell'intelligenza.SPOILER (clicca per visualizzare)E tipo questa idea -che è un gioco mentale, come l'idea di togliere i neuroni a qualcuno- ha spinto un sacco di roba, al punto che gente diceva di essere riuscita a "passare il test di Turing" creando un bot che parla in inglese sgrammaticato fingendo di essere un bambino di 13 anni dell'est Europa con grossi problemi.
Cè è veramente troppa roba (il capitolo su questo credo siano una ventina di pagine molto molto interessanti, ma scritte molto sinteticamente). Mi sono perso la cosa di Searle comunque.
La cosa di Searle fa parte del pezzo su strong AI, e sul fatto se è possibile o meno. Lui dice: non è possibile. Se anche si ricreassero artificialmente tutte le componenti del cervello umano e si riuscisse a riconnetterle e blablabla, e si prendesse una persona a cui togliere i neuroni per mettere quelli artificiali, la vittima dell'esperimento sentirebbe la sua coscienza separarsi dal corpo, mentre il corpo continua a rispondere all'esterno e le persone che conducono l'esperimento annuiscono soddisfatte perché "funziona, la persona è ancora perfettamente cosciente". E alla fine la coscienza della vittima vaga in un vuoto non definito.
cè non vuol dire niente, mi faceva solo impressione come esempio
A un certo punto parla di tipo nell'ottocento, quando si pensava che la chimica organica e quella (non organica?) erano ritenute totalmente separate e inconciliabili, e dei tipi hanno creato non ho ben capito cosa di organico (forse pipì) a partire da molecole non organiche. Anche l'intelligenza, secondo me, sta tutta nella ricetta, non sarà roba tipo Frankenstein con gli elettrodi e i fulmini, ma immagino la giusta combinazione di materiale inorganico possa creare materiale organico. Siamo partiti tutti così, cacca primordiale che diventa altro.CITAZIONEspinta vitale
L'esistenza della "spinta vitale" è qualcosa a cui sto pensando parecchio e non ci capisco proprio niente. Tipo, oggi continuavo a chiedermi cosa è realmente il dolore e il piacere. KRIG aiutaci te. Cosa è? L'evoluzione credo sia una conseguenza della possibilità di percepire cose pericolose come dolorose. E quindi è un comodo meccanismo evolutivo. Ma poi cosa è? Cioè ci sono dei sensori periferici in grado di percepire cose che sono dolorose, come un taglio. Questi sensori mandano qualcosa. Tipo impulsi al cervello? Il cervello in cambio che fa? Crea molecole? Le molecole che fanno? Vengono prese dai neuroni? Sono i neuroni che soffrono e soffrendo loro soffre tutto il sistema?
KRIG aiutami.CITAZIONEcomputer creano cose nuove
Da quel che dice il libro, i computer hanno dimostrato teoremi nuovi e fatto scoperte vere (anche se non sconvolgenti), grazie a algoritmi di intelligenza artificiale. Quindi sì, sono in grado di produrre "cose nuove".
Non so come lo fanno, probabilmente utilizzano un approccio esaustivo (che è facile da perseguire con i computer, sono veloci e hanno tempo da perdere quindi possono benissimo calcolare tutto -o quasi) con a fianco parti "intelligenti" in grado di apprendere da cose già fatte, e quindi in grado di scartare con più facilità cose sbagliate. Cioè, ad esempio un programma che gioca a scacchi e vince si potrebbe dire che si comporta intelligentemente. Se però per farlo calcola tutte le mosse possibili e poi sceglie quella che con più probabilità lo porta alla vittoria, non è molto intelligente. Se invece nel calcolare un po' di mosse nel futuro, non cercandole tutte ma provandone un insieme più piccolo (scartando mosse inutili grazie a quello che sa), il programma è già più intelligente.
Per trovare prove a teoremi matematici credo si faccia in maniera simile. Una delle altre cose che obiettano gli obiettori () è che l'uomo non gioca a scacchi così, e non scopre teoremi così. Almeno, i campioni di scacchi non giocano così: guardano la scacchiera e "vedono" la mossa da fare. E la risposta tipica è che gli aerei non volano come i piccioni, e riescono a volare proprio perché non volano come i piccioni. Leonardo da Vinci cascava come una pera cotta, mentre i fratelli Wright hanno studiato l'aerodinamica e hanno imparato a volare.CITAZIONEche cazz vuol dire intelligenza artificiale
Allò, ci sta questa distinzione fra weak AI e strong AI. Poi c'è un altro modo di distinguere, su due assi: l'asse pensiero/azione e l'asse umano/razionale (che non sta necessariamente implicando che gli umani non siano razionali, ma solo che hanno una componente non razionale). Il libro fa quattro distinzioni: macchina che pensa razionalmente, macchina che agisce razionalmente, macchina che pensa come un umano, macchina che agisce come un umano.
La terza è la più impossibile e incredibile: non sappiamo neanche noi come pensiamo, quindi l'idea di una macchina che pensa come un uomo è totalmente teorica per ora.
Macchine che pensano razionalmente esistono da parecchi anni. Alcune si limitavano a pensieri logici semplici, inferenze e deduzioni secondo regole stabilite e che portavano la macchina a "scoprire" cose nuove grazie all'insieme di regole e delle premesse. Un esempio sul libro è CANE(x) -> MAMMIFERO(x) (ossia, se "x" è un cane, allora "x" è un mammifero). Con questa regola la macchina capisce che il cane Fido è un mammifero. La parte "incredibile" è che questa nozione non era presente nelle premesse e la macchina l'ha creata. (ok è un esempio scemo ma gli esempi veri e fichi non li fanno sui libri, li fanno nelle pubblicazioni scientifiche) Altre macchine fanno cose molto più avanzate. Tipo per decidere come inviare i militari durante la guerra del golfo gli stati uniti hanno usato un sistema di intelligenza artificiale che ha tirato fuori un piano potentissimo in poche ore, e che gli ha fatto risparmiare una quantità di soldi immane. Ci sono computer che decidono come investire in borsa, apprendendo dal passato e studiando come fluttuano le azioni. Altri che diagnosticano malattie sulla base delle analisi (il prof di AI sta facendo questo tipo di ricerca). E tipo sta roba rientra come pensiero logico. E in parte azione logica (tipo i computer borsisti). I robottini che puliscono per terra sono esempi di roba con AI, e la stessa ditta che fa i roomba fa anche robot semi radiocomandati usati per disinnescare le bombe a distanza.
"Agire in maniera umana" secondo me è la cosa più inutile. È la cosa più vicina al test di Turing.
E cmq a me davvero sembra una ricerca folle di alchimisti impazziti, tutti convinti che l'intelligenza artificiale VERA sia ottenibile in qualche modo, chi per motivi pseudo scientifici chi per motivi realmente teologici.
Dovevo mandare sto post 2 ore fa ma la connessione della sapienza fa schifo. Quindi l'ho modificato e ho incasinato le citazioni quindi ora ci sono solo parole chiave. Scusatemi.. -
.
Scusat sto guardando Fawlty Towers ma ho scrollato un attimo e ho letto questo CITAZIONECITAZIONEspinta vitale
KRIG aiutami.
Torno dopo. -
Zaphod Beeblebrox ^^".
User deleted
Ci sono troppe cose che vorrei ancora dire, forse sarei ripetitivo.
Volevo ribadire il punto di quello che dice Searle (l'esempio del cervello artificiale). Non gli interessa nulla della pratica di questa cosa, di come sarà fatto. Assume sia fattibile, visto che il cervello è qualcosa di fisico e che quindi con la dovuta tecnologia si può ricreare. Lui tira fuori quella storiella per stabilire semplicemente che crede nel dualismo cervello/mente. Per lui non è vero che brain causes mind o come cavolo dicono, la mente è altrove, e se provi a sostituirle un cervello meccanico poco alla volta sperando che quella "travasi" nel cervello elettronico, la mente vola via come un palloncino a cui hanno tagliato il filo. Per molta gente nel campo questo non è vero. Ma tanto sono tutte pippe mentali.. -
.
E' fighissimo il fatto della scatola cinese CITAZIONEspinta vitale
L'esistenza della "spinta vitale" è qualcosa a cui sto pensando parecchio e non ci capisco proprio niente. Tipo, oggi continuavo a chiedermi cosa è realmente il dolore e il piacere. KRIG aiutaci te. Cosa è? L'evoluzione credo sia una conseguenza della possibilità di percepire cose pericolose come dolorose. E quindi è un comodo meccanismo evolutivo. Ma poi cosa è? Cioè ci sono dei sensori periferici in grado di percepire cose che sono dolorose, come un taglio. Questi sensori mandano qualcosa. Tipo impulsi al cervello? Il cervello in cambio che fa? Crea molecole? Le molecole che fanno? Vengono prese dai neuroni? Sono i neuroni che soffrono e soffrendo loro soffre tutto il sistema?
Rotfl, ma che c'entra il dolore?
Comunque non mi ricordo na minchia.
Allora se a causa di una lesione (chimica, meccanica, termica e non so più che altro) una cellula rilascia determinate sostanze chimiche (dal potassio all'ATP all'istamina e altre cose così, ad esempio rompendosi) che si legano ai nocicettori (neuroni recettori del dolore che si trovano dappertutto per farti sentire male dappertutto) e causano un'apertura di certi canali che hanno (non so quali canali in particolare abbiano, cioè per quali elementi siano permeabili) che fanno entrare cariche positive che depolarizzano il neurone (cioè semplicemente l'interno del neurone diventa meno negativo rispetto a prima) innescando un potenziale d'azione che si risolve all'estremo del neurone, nell'assone presinaptico che rilascia delle molecole chimiche come cationi di calcio che fungono da neurotrasmettitori (dei messaggeri che avvertono il neurone postsinaptico), e a loro volto si legano con i canali del neurone postsinaptico che aprendosi lasciano entrare a loro volta cariche positive. Questo a sua volta si depolarizza e innesca un altro potenziale d'azione. Questa staffetta continua attraverso il midollo spinale fino ad arrivare alla zona deputata alla percezione del dolore all'interno della corteccia. Ora, il messaggio resta uno e non c'è differenza tra il potenziale d'azione di un messaggio visivo e il potenziale d'azione di un messaggio dolorifico. Conta fondamentalmente il posto in cui arriva il messaggio (che ha sempre valore 1, on/off). Attraverso le connessioni tra neuroni il cervello capisce se il neurone che sta scaricando debba far vedere un colore o debba piuttosto far sentire dolore.
Per la serie: la somma è più dell'insieme delle parti.
Tanto dolore significa semplicemente più neuroni che scaricano/neuroni che scaricano più velocemente.
Ovviamente questo è quello che mi ricordo, qualcuno saprebbe dare informazioni più convincenti.
ps: no, il neurone non soffre
Comunque hai scritto cose interessanti indeed
Hanno creato pipì organica
La scienza è una meraviglia di stuporeSPOILER (clicca per visualizzare)potevano creare cioccolata
Edited by Krigerinne - 17/3/2015, 00:08.