Yahoo Italia Ricerca nel Web

Risultati di ricerca

  1. en.wikipedia.org › wiki › EntropyEntropy - Wikipedia

    Entropy is the measure of the amount of missing information before reception. Often called Shannon entropy, it was originally devised by Claude Shannon in 1948 to study the size of information of a transmitted message.

  2. it.wikipedia.org › wiki › EntropiaEntropia - Wikipedia

    • Storia
    • Descrizione Intuitiva
    • Descrizione Rigorosa
    • Definizione Termodinamica
    • Definizione Quantistica
    • Definizione Statistica
    • Equazione Di Bilancio
    • IL Concetto Di Entropia in Altri Campi
    • Bibliografia
    • Voci Correlate

    Il concetto di entropia fu introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui generalità fu osservata per la prima volta da Sadi Carnotnel 1824) di tutti i sistemi allora conosciuti, nei quali si osservava che le trasformazioni avvenivano spontaneamente in una sola direzione, quella vers...

    Il concetto di entropia è piuttosto complesso e, per comprendere appieno il suo significato, è necessaria almeno una conoscenza di base della termodinamica e della meccanica statistica; esistono infatti almeno due definizioni dell'entropia: una definizione macroscopica, fornita dalla termodinamica, e una definizione microscopica, fornita dalla mecc...

    Energia ed entropia

    Assumendo che l'intero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - il primo e il secondo principio della termodinamicapossono essere riassunti come segue: 1. l'energiatotale dell'universo è costante e l'entropia totale è in continuo aumento, fino a raggiungere un equilibrio affermazione valida per qualsiasi sistema isolato. Ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si...

    Postulato dell'entropia

    Una proprietà fondamentale afferma che in un sistema isolato l'entropia S {\displaystyle S} di sistema non diminuisce mai e, durante un ordinario processo irreversibile, aumenta. La dimostrazione si basa sul secondo principio della termodinamica. Si consideri un sistema isolato sia meccanicamente sia termicamente che, a causa di una perturbazione interna, si porta da uno stato 1 {\displaystyle 1} a uno stato 2 {\displaystyle 2} . Essendo l'entropia una funzione di stato (per definizione la va...

    La variazione della funzione di stato entropia S {\displaystyle S} venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamicacome: 1. Δ S = Q r e v T {\displaystyle \Delta S={\frac {Q_{rev}}{T}}} dove Q r e v {\displaystyle Q_{rev}} è la quantità di calore assorbita o ceduta in maniera reversibile e isoterma dal sistema a temperat...

    Mentre nella visione termodinamica l'entropia è sempre espressa in termini di variazione, e mai in termini assoluti, in meccanica quantistica è possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement. Si considerino due sistemi A {\displaystyle A} e B {\displaystyle B} , ognuno con associato uno spazio di Hilbert H A...

    In meccanica statisticalo studio sull'entropia è un tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che a una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e tempera...

    In un sistema isolato, il secondo principio della termodinamica asserisce che l'entropia può solo aumentare. In un sistema aperto, in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio. Un sistema aperto è ge...

    Teoria dell'informazione

    Si deve a Claude Shannon lo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articolo Una teoria matematica della comunicazionedel 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media. Nella teoria dell'informazione - e in rapporto alla teori...

    Economia

    Georgescu-Roegen applicando il secondo principio della termodinamica all'economia, e in particolare all'economia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita: ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema-Terra: tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato s...

    Finanza

    Un'altra formulazione dell'entropia nei sistemi economici si ritrova nel moto di propagazione e diffusione dell'informazione nel mercato finanziario. Quest'ultimo, grazie alla sua funzione di formazione dei prezzi, facilita la quantificazione del processo di scambio, il quale è inestricabilmente legato all'informazione disponibile. L'informazione nel mercato si diffonde su base probabilistica, esattamente come in termodinamica, ovvero è infinitamente più probabile che la particella di informa...

    Richard Feynman, La fisica di Feynman, Bologna, Zanichelli, 2001, ISBN 978-88-08-16782-8.Vol I, par. 46-5: Ordine ed entropia
    Ben-Naim Arieh, L'entropia svelata. La seconda legge della termodinamica ridotta a puro buon senso, 1ª ed., Edizioni libreriauniversitaria.it, 2009, ISBN 978-88-6292-011-7.
    (EN) J. M. Smith, H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 6ª ed., McGraw-Hill, 2000, ISBN 0-07-240296-2.
    (EN) Robert Perry, Don W. Green, Perry's Chemical Engineers' Handbook, 8ª ed., McGraw-Hill, 2007, ISBN 0-07-142294-3.
  3. Entropy is an international and interdisciplinary peer-reviewed open access journal of entropy and information studies, published monthly online by MDPI.

    • entropy1
    • entropy2
    • entropy3
    • entropy4
    • entropy5
  4. 29 mag 2024 · Entropy, the measure of a systems thermal energy per unit temperature that is unavailable for doing useful work. Because work is obtained from ordered molecular motion, entropy is also a measure of the molecular disorder, or randomness, of a system.

  5. The entropy of the system, which is δ Q T, increases by δ Q 273 K. The heat δ Q for this process is the energy required to change water from the solid state to the liquid state, and is called the enthalpy of fusion, i.e. Δ H for ice fusion.

  6. 28 nov 2021 · Entropy is a measure of the randomness or disorder of a system. Its symbol is the capital letter S. Typical units are joules per kelvin (J/K). Change in entropy can have a positive (more disordered) or negative (less disordered) value. In the natural world, entropy tends to increase.

  7. entropy - definizione, significato, pronuncia audio, sinonimi e più ancora. Che cosa è entropy? 1. the amount of order or lack of order in a system 2. a measurement of the energy in a system or…:

  1. Le persone cercano anche