Sembrerebbero quasi tesi lapalissiane, ma... non dopo uno scroll veloce degli ultimi 100 post su Linkedin. Grazie per la condivisione. Stefano
Inviato con l'email sicura Proton Mail. martedì 6 maggio 2025 15:58, Daniela Tafani <[email protected]> ha scritto: > Ciao, Maurizio, > > riprendono alcune tesi che hanno già sostenuto altrove: > > - nel passaggio da ricerca a commercio, ossia da una scoperta o un'invenzione > allo sviluppo di prodotti, è decisiva la distinzione tra capacità e > affidabilità: > un sistema che effettui correttamente la prenotazione di un volo aereo 9 > volte su 10 è definito, tecnicamente, come capace di farlo, > ma nessuno lo vorrebbe, come "agente" di viaggio. Ed è improbabile che le > tecniche che consentono di arrivare al 90% di correttezza ci portino fino al > 100%. > Per i prodotti, come le auto a guida autonoma, in cui quel 10% di errori è > costoso, non sono accettabili sperimentazioni nel mondo reale; > > - i benchmark non misurano l'utilità nel mondo reale; > > - l'idea della superintelligenza su fonda su errori concettuali e logici: > l'intelligenza non è né una caratteristica fissa e stabile né omogenea e > misurabile su scala unidimensionale. Non esiste un'accezione utile del > termine "intelligenza" in cui l'IA sia più intelligente delle persone che la > usano. Le situazioni reali in cui siano necessarie capacità di computazione > velocissima sono limitate; > > - la regolazione promuove, non ostacola, diffusione e innovazione; in ogni > caso, la maggior parte dei settori in cui l'IA verrà usata è già regolata. > Chi sostiene che manchi una regolazione dell'IA sostiene una regolazione > modello-centrica, che non ha senso; > > - human-in-the-loop e allineamento dei modelli non sono soluzioni; > > - se consideriamo l'IA come una tecnologia normale, terremo presenti gli > effetti più verosimili della sua introduzione, anziché quelli fantascientici. > Ad esempio, l'aumento di pratiche estrattive e quindi di disuguaglianza. > > Un saluto, > Daniela > > > > > ________________________________________ > Da: nexa [email protected] per conto di maurizio lana > [email protected] > > Inviato: martedì 6 maggio 2025 14:24 > A: [email protected] > Oggetto: Re: [nexa] AI as Normal Technology > > grazie della segnalazione. > il paper linkato è di 52 pagine quindi non azzardo commenti anche se le prime > pagine che ho letto mi paiono sensate e centrate. > in ogni caso il tema che gli autori pongono mi pare rilevante: > The normal technology frame is about the relationship between technology and > society. It rejects technological determinism, especially the notion of AI > itself as an agent in determining its future. It is guided by lessons from > past technological revolutions, such as the slow and uncertain nature of > technology adoption and diffusion. It also emphasizes continuity between the > past and the future trajectory of AI in terms of societal impact and the role > of institutions in shaping this trajectory. > ovvio che chi non ha mai visto un martello potrebbe decidere di vederci una > rappresentazione del divino ma sappiamo che serve per piantare chiodi; e nel > piantare chiodi è molto utile per tutti quelli che prima usavano pietre prese > al fiume per piantare i chiodi; e così facendo spesso si schiacciavano le > unghie o storcevano i chiodi. > > Maurizio > > > > Il 04/05/25 14:56, Daniela Tafani ha scritto: > > AI as Normal Technology > An alternative to the vision of AI as a potential superintelligence > By Arvind Narayanan and Sayash Kapoor > April 15, 2025 > > We articulate a vision of artificial intelligence (AI) as normal technology. > To view AI as normal is not to understate its impact—even transformative, > general-purpose technologies > such as electricity and the internet are “normal” in our conception. But it > is in contrast to both utopian and dystopian visions of the future of AI > which have a common tendency to > treat it akin to a separate species, a highly autonomous, potentially > superintelligent entity. > > The statement “AI is normal technology” is three things: > a description of current AI, > a prediction about the foreseeable future of AI, and > a prescription about how we should treat it. > > We view AI as a tool that we can and should remain in control of, and we > argue that this goal does not require drastic policy interventions or > technical breakthroughs. We do not > think that viewing AI as a humanlike intelligence is currently accurate or > useful for understanding its societal impacts, nor is it likely to be in our > vision of the future. > The normal technology frame is about the relationship between technology and > society. > It rejects technological determinism, especially the notion of AI itself as > an agent in determining its future. It is guided by lessons from past > technological revolutions, such as > the slow and uncertain nature of technology adoption and diffusion. It also > emphasizes continuity between the past and the future trajectory of AI in > terms of societal impact and > the role of institutions in shaping this trajectory. > > In Part I, we explain why we think that transformative economic and societal > impacts will be slow (on the timescale of decades), making a critical > distinction between AI methods, > AI applications, and AI adoption, arguing that the three happen at different > timescales. > > In Part II, we discuss a potential division of labor between humans and AI in > a world with advanced AI (but not “superintelligent” AI, which we view as > incoherent as usually conceptualized). In this world, control is primarily in > the hands of people and organizations; indeed, a greater and greater > proportion of what people do in their jobs is AI control. > > In Part III, we examine the implications of AI as normal technology for AI > risks. We analyze accidents, arms races, misuse, and misalignment, and argue > that viewing AI as normal technology leads to fundamentally different > conclusions about mitigations compared to viewing AI as being humanlike. > Of course, we cannot be certain of our predictions, but we aim to describe > what we view as the median outcome. We have not tried to quantify > probabilities, but we have tried to > make predictions that can tell us whether or not AI is behaving like normal > technology. > > In Part IV, we discuss the implications for AI policy. We advocate for > reducing uncertainty as a first-rate policy goal and resilience as the > overarching approach to catastrophic risks. > > We argue that drastic interventions premised on the difficulty of controlling > superintelligent AI will, in fact, make things much worse if AI turns out to > be normal technology— the > downsides of which will be likely to mirror those of previous technologies > that are deployed in capitalistic societies, such as inequality > > https://www.aisnakeoil.com/p/ai-as-normal-technologyhttps://www.aisnakeoil.com/p/ai-as-normal-technology > > > > > ________________________________ > > if we spent on prosecuting the rich > just one-tenth of the effort we spend prosecuting the poor > it would be a very different world > Bruce Schneier > > ________________________________ > Maurizio Lana > Università del Piemonte Orientale > Dipartimento di Studi Umanistici > Piazza Roma 36 - 13100 Vercelli
