Grazie Guido, approccio semplice, diretto e molto interessante. Stiamo raccogliendo idee e pratiche di insegnamento attraverso l'AI nel nostro New Learning Club on Teaching with Artificial Intelligence, se vuoi dare un'occhiata. Saluti a tutti, Fabio
Il giorno 15/10/24, 12:00 "[email protected] <mailto:[email protected]> per conto di [email protected] <mailto:[email protected]>" <[email protected] <mailto:[email protected]> per conto di [email protected] <mailto:[email protected]>> ha scritto: Send nexa mailing list submissions to [email protected] <mailto:[email protected]> To subscribe or unsubscribe via the World Wide Web, visit https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> or, via email, send a message with subject or body 'help' to [email protected] <mailto:[email protected]> You can reach the person managing the list at [email protected] <mailto:[email protected]> When replying, please edit your Subject line so it is more specific than "Re: Contents of nexa digest..." Today's Topics: 1. Re: Large language models reduce public knowledge sharing on online Q&A platforms (Paolo Caressa) 2. Re: Large language models reduce public knowledge sharing on online Q&A platforms (Guido Vetere) ---------------------------------------------------------------------- Message: 1 Date: Tue, 15 Oct 2024 10:47:55 +0200 From: "Paolo Caressa" <[email protected] <mailto:[email protected]>> To: [email protected] <mailto:[email protected]> Cc: [email protected] <mailto:[email protected]>, [email protected] <mailto:[email protected]> Subject: Re: [nexa] Large language models reduce public knowledge sharing on online Q&A platforms Message-ID: <[email protected] <mailto:[email protected]>> Content-Type: text/plain; charset="utf-8" Buongiorno, mi sembra un ottimo esempio, a riprova che, chi si ritiene "non esperto" su una tecnologia, in realtà, se conosce il contesto al quale poterla applicare, pensa a nuovi casi d'uso e a come impiegarla per aumentare il valore di quel che ha fatto finora ;-) P Da "nexa" [email protected] <mailto:[email protected]> A "Guido Vetere" [email protected] <mailto:[email protected]> Cc [email protected] <mailto:[email protected]> Data Tue, 15 Oct 2024 07:28:04 +0200 Oggetto Re: [nexa] Large language models reduce public knowledge sharing on online Q&A platforms Volevo condividere con voi, che a differenza mia siete esperti del tema, come ho deciso di utilizzare ChatGPT e l'IA per la didattica. Ai miei corsi di laurea magistrale, quindi con 30/40 studenti, da sempre riesco a farli lavorare per task su un paper scientifico: 1. descrizione, 2. punti di forza, 3. punti di debolezza, 4. implicazioni applicative. Con queste indicazioni devono preparare un breve doc e un ppt da presentare in aula. Nel farlo, devono attingere ai temi del corso e alla letteratura. L'avvento di ChatGPT et similia cambia le regole del gioco. Ho quindi deciso di introdurre questi strumenti in modo esplicito nel corso: i 4 task di cui sopra vengono chiesti anche a ChatGPT e ad altri tools (da me), per ogni paper distribuito ai singoli gruppi di lavoro. Il risultato viene poi condiviso in anticipo con gli studenti e rappresenta il... 18/30, quindi la baseline. Condivido così in modo esplicito una base comune e loro devono dimostrare, come in effetti è, di apportare un valore aggiunto e specifico rispetto al machine learning. ciao fb Il giorno mar 15 ott 2024 alle ore 07:19 Guido Vetere <[email protected] <mailto:[email protected]>> ha scritto: la spiegazione in questo caso è semplice: i programmatori non cercano più le soluzioni ai loro problemi su stackoverflow, perché le ottengono più facilmente dai LLM se ne discute anche su quella piattaforma [link] chi mette contenuto su stackoverflow, lo fa perché le soluzioni migliori vengono votate, e il ranking che uno sviluppatore ottiene su quella piattaforma è un'ottima referenza professionale venendo meno il meccanismo di rewarding, viene meno il motivo di fornire contenuti alla piattaforma per cui sì, gli LLM 'uccidono' alcuni business, ma caso per caso, in relazione a specifici business model: la generalizzazione è indebita non è chiaro se prosciugando la 'sorgente umana' delle soluzioni di programmazione, i co-programmatori automatici stanno in realtà segando il ramo sul quale sono seduti, o se riusciranno ad auto-alimentarsi, o impareranno in qualche misura a ragionare con la testa loro - almeno sugli if-then-else, perbacco! buona giornata, G. On Mon, 14 Oct 2024 at 23:57, Giacomo Tesio <[email protected] <mailto:[email protected]>> wrote: Large language models (LLMs) are a potential substitute for human-generated data and knowledge resources. This substitution, however, can present a significant problem for the training data needed to develop future models if it leads to a reduction of human-generated content. In this work, we document a reduction in activity on Stack Overflow coinciding with the release of ChatGPT, a popular LLM. To test whether this reduction in activity is specific to the introduction of this LLM, we use counterfactuals involving similar human-generated knowledge resources that should not be affected by the introduction of ChatGPT to such extent. Within 6 months of ChatGPT’s release, activity on Stack Overflow decreased by 25% relative to its Russian and Chinese counterparts, where access to ChatGPT is limited, and to similar forums for mathematics, where ChatGPT is less capable. We interpret this estimate as a lower bound of the true impact of ChatGPT on Stack Overflow. The decline is larger for posts related to the most widely used programming languages. We find no significant change in post quality, measured by peer feedback, and observe similar decreases in content creation by more and less experienced users alike. Thus, LLMs are not only displacing duplicate, low-quality, or beginner-level content. Our findings suggest that the rapid adoption of LLMs reduces the production of public data needed to train them, with significant consequences. https://academic.oup.com/pnasnexus/article/3/9/pgae400/7754871 <https://academic.oup.com/pnasnexus/article/3/9/pgae400/7754871> Com'era la favoletta che i LLM non competono sul mercato con i contenuti usati per programmarli statisticamente? Giacomo -- Professor of Economic Sociology CPS Department University of Torino https://unito.webex.com/meet/filippo.barbera <https://unito.webex.com/meet/filippo.barbera> NEW!!!! 2023 Le piazza vuote. Riprendiamo gli spazi della politica, Bari, Laterza -------------- next part -------------- An HTML attachment was scrubbed... URL: <http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/8fbf524c/attachment-0001.htm> <http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/8fbf524c/attachment-0001.htm>> ------------------------------ Message: 2 Date: Tue, 15 Oct 2024 10:54:15 +0200 From: Guido Vetere <[email protected] <mailto:[email protected]>> To: Giacomo Tesio <[email protected] <mailto:[email protected]>> Cc: [email protected] <mailto:[email protected]> Subject: Re: [nexa] Large language models reduce public knowledge sharing on online Q&A platforms Message-ID: <cad3hhb4svcxkkyvyzab7s8kr_oqp4f6b+95-ycjegfdi-ju...@mail.gmail.com <mailto:cad3hhb4svcxkkyvyzab7s8kr_oqp4f6b+95-ycjegfdi-ju...@mail.gmail.com>> Content-Type: text/plain; charset="utf-8" > Peccato che siano spesso sbagliate... peccato che Don Knuth abbia superato l'ottantina - che Iddio lo preservi - e non possiamo mandargli gli snippet :-) è inutile stare qui a fare aneddotica, sono le masse (di programmatori) che decideranno per loro. se non sono cretini (e mediamente non lo sono) giudicheranno pros e cons a loro discrezione e piacimento, in fondo è gente che lavora G. On Tue, 15 Oct 2024 at 09:50, Giacomo Tesio <[email protected] <mailto:[email protected]>> wrote: > Grazie Guido, > > On Tue, 15 Oct 2024 07:19:16 +0200 Guido Vetere wrote: > > > se ne discute anche su quella piattaforma [link > > < > https://meta.stackoverflow.com/questions/422392/chatgpt-seems-to-be-better-than-stack-overflow-both-in-speed-and-accuracy-what > > <https://meta.stackoverflow.com/questions/422392/chatgpt-seems-to-be-better-than-stack-overflow-both-in-speed-and-accuracy-what> > > > > una lettura davvero interessante... e a suo modo divertente. > > > > i programmatori non cercano più le soluzioni ai loro problemi su > > stackoverflow, perché le ottengono più facilmente dai LLM > > Peccato che siano spesso sbagliate... > > Spero solo non capiti mai a me o alle persone che amo di doverne > subire il software. Sono già abbastanza sfigato da incappare > sistematicamente in corner case bacati quando il codice lo > scrivono persone intelligenti... ok, a volte c'è un compilatore di > mezzo, ma per quanto pedante, è improbabile che riesca a beccare > qualsiasi baco che un LLM (che non comprende né il prompt, > né l'output) possa introdurre. > > > Giacomo > -------------- next part -------------- An HTML attachment was scrubbed... URL: <http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/01cf5f15/attachment-0001.htm> <http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/01cf5f15/attachment-0001.htm>> ------------------------------ Subject: Digest Footer _______________________________________________ nexa mailing list [email protected] <mailto:[email protected]> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> ------------------------------ End of nexa Digest, Vol 186, Issue 31 *************************************
