Den bedrøvelige utviklingen av raketter

Amerikanske Saturn V raketten er den sterkeste (størst skyvkraft) som noen gang har vært i bruk. Den ble benyttet første gang i 1967, siste gang i 1973, og ble brukt for å frakte Apollo-kapsen til månen. Den veide ved start ca. 3.000 tonn, hadde 4.18 millioner Kilopond skyvkraft (tilsvarer 4.180 tonn ved jordens overflate). Nå er Space Launch System (SLS) under utvikling, et amerikansk rakettsystem med første trinn som vel kan måle seg med Saturn V (uenighet blant kommentatorene). Det er planlagt å frakte romfarere - i Orion romkapsel - i bane til månen og tilbake, kanskje første gang i 2021 - 2013. Orion-kapselen er imidlertid et sorgens kapittel, den er bare litt større enn Apollo, og det vil ta minst(!) 17 års utvikling før den kan ta sin første tur i verdensrommet - enda større forsinkelser kan forventes. Dette er svært mye dårligere enn forrige runde med romfart-utviklingen. I tidsrommet 1964 til 1981, under ledelse av NASA, utviklet amerikanerne første generasjon romkapsel (Gemini), utviklet og benyttet Saturn V og Apollo og til slutt utviklet og startet bruk av den mye mer kompliserte romfergen. Og da hadde man vel og merke ikke de avanserte datamaskinassisterte konstruksjons-verktøy man har i dag. Det foreligger også en rent ut sagt fantasifull plan om å sende mennesker til Mars med SLS-Orion systemet, mer om det i en senere artikkel. Utviklingen har ikke stått stille innen romfart - det har gått bakover!

Innen raketter generelt er det amerikanske rakett-systemet - EELV Evolved Expendable Launch Vehicle - et eksempel på «utviklingen». Det har i lang tid til dels benyttet den Sovjetrussiske (nå russiske) raketten RD-180 som 1. trinn (for Atlas V). Dette er en konstruksjon fra 1970-tallet, og amerikanerne planlegger å benytte over en milliard dollar for å erstatte den - det dårlige forholdet til Russland har medført det. Tro nå endelig ikke at andre romfarts-land har unngått problemene. Den russiske raketten Proton fløy første gang i 1965 og benytte stadig i turer til og fra den internasjonale romstasjonen, selv en så stødig konstruksjon har opplevd sine problemer nylig. Det samme gjelder Kinas «Lang marsj» for øvrig ganske nye rakettprogram, deres nye rakett, sviktet i en test nylig.

Ut fra dette må det ropes et rungende hvorfor - vi er jo vant med en galopperende teknologisk utvikling. Det første svaret er rakettmotorene; kjemiske motorer, her er potensialet for lengst tatt ut, dvs. det er rent fysisk ikke mulig å forbedre dem i særlig - om i noen - grad! Det må antas forbedringer i materialet i rakettene og IT-utviklingen må jo har gjort styresystemene mer avansert og lettere - men akkurat dette er noe vanskelig å se å ha medført forbedringer. NASA ser ut til å ha blitt overbyråkratisert og -administrert, noe amerikanerne nok har skjønt, og har lempet over mye av teknologiutviklingen til private. De har på sin side fått oppleve at romfart er en vanskelig greie - med flere tilbakeslag - men vil antas å kunne overta styringen av romrakett-teknologien i USA.

Det er motorene som er problemet og det er derfor her man må søke etter helt nye typer - hvis man skal makte vesentlige forbedringer. Den kanskje mest lovende er de såkalte plasmamotorene, gjerne med en radioaktiv kraftkilde. Men - en utvikling frem til fullt brukbare og kraftig nok motorer kan ta år-tier.

Til slutt - innholdet i denne artikkelen kan virke noe vanskelig å tro på - det er bare å gå inn på Internett og sjekke selv.

Jordens klima 2017 - 07,en oversikt

Det skal her nevnes noen stikkordspregede nyheter om klodens klima i juli. Som en start presenteres en oversikt over jordens temperatur i 2017.

Som man ser har utviklingen vært svakt kaldere enn de ti siste år. Poenget med å relatere temperaturen til de ti siste år er: Den «offisielle» sammenligningen er 1961 - 1990, men det blir lite opplysende idet det var en kald periode i 1945 - 1980, slik at en sammenligning for alle nevnte år viser en oppvarming, mens mer informativt er å sammenligne med de ca. 10 siste år.

Det er et spesielt problem med data fra GISS, idet temperatur-størrelser fra tidligere år gjennomgår stadig «administrative» forandringer -  i praksis justeres temperaturene for tidligere tider alltid ned - slik at nåtiden alltid fremstår som varmere. Ett (grotesk) eksempel er - sitat:

  • Note: The administrative upsurge of the temperature increase from January 1915 to January 2000 has grown from 0.45 (reported May 2008) to 0.68oC (reported August 2017). This represents an about 51% administrative temperature increase over this period, meaning that more than half of the reported (by GISS) global temperature increase from January 1910 to January 2000 is due to administrative changes of the original data since May 2008.

Et bedre ord enn administrativ justering er manipulering, eller aller best: rent fjusk.

Merk: Dårlig oppløsning i bildet under.

2017_07_is_tykkelse_arktis

Diagrams showing Arctic sea ice extent 9 July 2017 and the seasonal cycles of the calculated total arctic sea ice volume, according to The Danish Meteorological Institute (DMI). The mean sea ice volume and standard deviation for the period 2004-2013 are shown by grey shading.

Det er konsensus om at temperaturen I Arktis har steget noe I de siste årene, unntatt i 2017, is-mengden har på den annen side holdt seg nær konstant,som figuren ovenfor viser.

I Ant-Arktis har temperaturen på den annen side sunket noe.

Dette er en meget forkortet presentasjon av et fyldig dokument, som finnes på adressen: http://www.climate4you.com/Text/Climate4you_July_2017.pdf

Den uintelligente trafikkovervåkning

Fartsgrenser er alle med førerkort vel kjent med, og det fremstilles i massemedia som selve fundamentet for hastighetsbegrensning. Dette er kanskje ikke så rart, konkrete tallstørrelser er jo lett å forholde seg til. På den annen side - det er en annen hastighetsbegrensede bestemmelse som egentlig skal være en viktigste; Hastigheten skal avpasses etter forholdene (i øyeblikket) - hørt om den? Dette er ikke en bagatell - hvor ofte hører vi om hastighetskontroller på tørre sommerveier og hvor politiet (skryter) om hvor mange «råkjørere» de har tatt. Men ikke omvendt; Hvor ofte hører vi om kontroller på særlig farlig vinterføre hvor det er grovt uaktsomt i det hele tatt å nærme seg fartsgrensen, og hvor den egentlig bestemmelsen om hastighetsbegrensning skal benyttes.

Fart dreper sier du? - ja mon det, hvis dette er riktig skal det knapt være en tysk bilist igjen, med fri fart på store deler av Autobahn. Det er m.a.o. ikke så enkelt at det er farten som i seg selv er farlig, men en sammensetning av flere faktorer. Disse er skadepotensiale x forholdene ved og på veibanen i øyeblikket x hastighet. Veibane-forholdene varierer som kjent markant, fra tørr sommervei i den lyse sommernatten til underkjølt regn på vinterstid, da ofte med dårlig sikt. Skadepotensialet varierer også markant, fra den nyere privatbil - til (ofte utenlandske) tunge kjøretøy.  Sistnevnte maksimeres med dårlig utstyrte utenlandske trailere og ditto utenlandske sjåfører, disse er ikke sjelden helt ukjent med norsk vinterføre, har ofte ikke korrekt førerkort og påtreffes av og til påvirket av alkohol.  Dette er «unsafe at any speed» (sitat fra trafikksikkerhetsforkjemper Ralph Nader, fra USA på 60- og 70-tallet). En «høydare» kunne vi observere nylig, en sjåfør fra Baltikum, uten gyldig førerkort, foretok fullstendig rabiate forbikjøringer. Til overmål var han ansatt i et norsk transportfirma. Hva skjedde; politiet ga firmaet en advarsel - tenk det - det er vanskelig å tenke seg noe farligere, en sjåfør i en nyere privatbil på maksimalt gunstig sommerføre knapt kan nærme seg dette farenivået, selv i de høyest mulige hastigheter. Sistnevnte hadde derimot fått fengselsstraff og offentlig fordømmelse!

Hva er så den intelligente trafikkovervåkning - ? Det er to ting; Det ene er å sjekke utenlandske vogntog nøye, om vinteren sjekkes alle. Det andre er å benytte vurdering ved fartskontroll ved gode veiforhold. Det er ikke råkjøring å ligge noe over fartsgrensen under maksimalt gode forhold, det er nemlig ikke brudd på den egentlig viktigste bestemmelsen! Som er trafikkforsker uttalte for noen år siden; Noe av det som er mest skadelig for respekten for trafikkreglene generelt er fartsgrenser som oppleves som fòr lave.

Derfor, et lønnlig håp er at politiet heller litt mot den intelligente trafikkovervåkning og slutter å skryte av hvor mange «råkjørere» de har tatt, uten vurdering av farenivået.

P.S.: Jeg har førerkort for nesten alle kjøretøyklasser, og kjørte drosje i Oslo i studietiden, slik at jeg vet godt forskjell på grise-kjøring og effektiv kjøring.

Test av selvkjørende kjøretøy.

Selvkjørende kjøretøy «kommer», men hva er grader av «selvkjøring» (egentlig en hoved-type av kunstig intelligens - AI)? Standardiserings-virksomheten SAE har utviklet standarden J3016, som klassifiserer fem nivåer av automasjon. Det er i realiteten overgangen fra nivå 1 til nivå 2 som er aktuell i dagens situasjon.  Nivå 1 tar seg av akselerasjon og bremsing, «i beste fall også noe styring». Typisk er «adaptiv» (såkalt glup) cruise kontroll. Nivå 2 omfatter hastighet og styring, mens føreren må overvåke omgivelsene og har ansvaret for å gripe inn ved system-utilstrekkelighet.

Dette er jo vel og bra, men hva omfatter det egentlig? Det er mye det - bare det å implementere (installere) nivå 1 komplett er meget komplisert og langt fra generelt tilgjengelig for noe kjøretøy. Jeg har en nesten ny og «smart» SUV, og skal her presentere noen av advarslene for utilstrekkelighet ved èn egenskap; «Tilfeller der radarene ikke registrerer bilen foran på korrekt måte»:

Biler som brått legger seg foran deg, biler som kjører i lav hastighet, bilen foran deg har lav oppover-pekende front eller ekstremt høy bakkeklaring..

Det er m.a.o. umiddelbart behov for flere sensorer, fra radar til infrarøde detektorer, akselrasjonsmåler m.v. Videre må dataprogrammene (AI) oppgraderes med et meget stort antall tolknings-muligheter av et vesentlig antall sensorer, og komplisert logikk for å bearbeide, tolke og til slutt betjene kjøretøyets aktiviteter, som også omfatter i noen grad evnen til å posisjonere bilen korrekt i veibanen - osv. osv.

Og dette er før overgangen til nivå 2, og det er flere nivåer igjen før kjøretøyet greier seg på egen hånd.

Leverandørene opplyser (selvfølgelig) ikke om alle utfordringene - slik at det påhviler myndigheter i et land å kontrollere egenskapene - dette gjøres kun ved testing, men også å ha vilje og ikke minst evne til å gå inn i dataprogrammenes kvalitet m.h.t. utbyggbarhet. Det vil vise seg om Veidirektoratet i Norge har vilje til å prioritere akkurat dette høyt nok - det krever bl.a. omfattende kompetanse innenfor AI-systemenes kvalitet m.h.t. design. Men hovedoppgaven bør være testing og atter testing - det å utvikle gode nok testing er en utfordring i seg selv!

"Nordpolisen smelter" - i føljetongen Fake-News

Smeltende Antarktis og isfri Nordpolen er stadig gjentagende I massemedia. Her skal det presenteres litt info om utvikling av is i Nordpol-bassenget. Det er nå offentliggjort en god del studier om utbredelsen av is-kappen, vel og merke før satellittene kom inn i bildet. FN`s miljøpanel (IPCC) kjører sitt løp med antagelser i retrospekt, mens det er utført en god del undersøkelser og ny beregninger av is-kappens utbredelse i tidligere tider. Det vil føre for langt å detaljere dette her - det vises til http://judithcurry.com/2017/08/16/what-do-we-know-about-arctic-sea-ice-trends/, figuren presentert her er hentet fra samme sted.

Her vises den markante forskjellen mellom IPCC`s retrospektive gjetninger og en grundig evaluering basert bl.a. på målinger av alger. IPCC presenterer alltid "alt var bedre før" uten noen form for vitenskapelig kunnskap, mens nevnte artikkel presenterer en rekke vitenskapelige artikler og deduserer is-mengdens utviklet fra 1901 til i dag. Merk usikkerheten.

Kortversjonen er at is-utbredelsen, som andre steder på kloden har gjennomgått sykliske forandringer helt siden slutten av siste istid (selvfølgelig), og det antas at det vil de fortsette å gjøre - helt uten «bistand» fra menneskers utslipp av CO2, og dettes innvirkning på <1% av drivhuseffekten (regn ut selv).

Men her på bjerget, som i andre land, høres omkvedet; menneske-skapt klimaforandring, isen ved polene smelter og havet stiger, var det 2, 3 eller 6 meter? Èn ting skal Donald Trump ha - han har gjort begrepet Fake-News til allemanns-eie!

 

Stealth - hva er det?

Vi har etterhvert blitt vant med begrepet stealth, kanskje særlig etter at Norge valgte F-35(A) som sitt nye kamp-fly, et såkalt 5. generasjons fly med stealth-konstruksjon. I massemedia blir vi fortalt at stealth-fly er usynlig på radar, men som i mange andre kompliserte teknologiske sammenhenger er dette en overforenkling - stealth-fly er vanskelige, til dels meget vanskelig å «se» på radar - men ikke usynlige.

F-35A, den av de tre utgavene av flyet som Norge har kjøpt.

Og hva er det nå som gir stealth-egenskaper og hvorfor? Graden av usynlighet kommer i hovedsak av to av forskjellige forhold.

Det ene er det vi vanligvis forstår med radar-ekko, en radar sender ut en puls som reflekteres mot i denne sammenheng et fly. Mere komplisert å forklare er at radarbølger som treffer et legeme også induserer strøm i det, som i sin tur sender detekterbare pulser. Nå avhenger styrken, dvs. detekterbarheten av et rader-ekko av flere forhold. Legemets flate rettet mot radaren (radar cross section - RCS), riktig utformet vil et legeme gi meget svake ekko for noen radartyper, dvs. avhenge av radar-pulsens bølgelengde. Russland og Kina har i de senere år utviklet transportable såkalte VHF-bånd radar, hvor det ikke er mulig å utforme et fly slik at radar-ekkoet nesten blir borte. Dette gjelder også de nyeste stealth-flyene - som F-35. Dvs. at selv F-35 vil gi et - om enn uklart ekko, så allikevel et ekko. Ekkoet vil imidlertid ikke være presist nok til å sende et missil mot det, sannsynligvis heller ikke å sende ut et jagerfly presist nok til at F-35 kan angripes. Radar-typer som kan plasseres i jager-fly har ikke denne egenskapen (kortere bølgelengde), slik at F-35 vil være nær usynlig for dem, unntatt på kort hold. Så nært kan det antas at F-35 på sin side har sett sin motstander og allerede har sendt avgårde et missil.

Det andre forholdet bygger på at infrarødt lys, som (også) er en del av det elektromagnetiske spektrum. Fysikken her er slik at etthvert legeme med en temperatur over absolutte null (0 grader Kelvin) sender ut dette lyset. Det å detektere et fly på grunnlag av utsendelse av infrarødt lys fra fly har til for kort tid siden vært uhensiktsmessig, feilraten har gjort det i praksis ubrukbart. Den voldsomme økningen i datamaskiners eksekverings-hastighet har medført en forandring, slik at nå har flere moderne jagerfly en slik detektor, her er F-35 m.a.o "synlig", nær på linje med eldre jagerfly.

Denne teknologiske utviklingen gjør at det kan stilles spørsmåltegn ved USA`s ensidige vekt på stealth-egenskaper ved sine kampfly. F-35 er utvilsomt et helt moderne og meget kampdyktig jagerfly, men det bør ikke forsøke seg på nær-kamp (dog-fight) med russiske jagerfly, dette er på den annen side urealistisk - F-35 ville ha angrepet det fientlige flyet  lenge før det. Det er å håpe på at så lenge norske F-35 holder seg unna Russlands territorium, med sine VHF-radarer, så vil stealth-egenskapene være avgjørende. Det er heller ikke andre helt nyutviklede jager-fly tilgjengelig i Vesten - svenske Gripen, på tross av at det er en +30 års gammel konstruksjon, er på enkelte måter bedre egnet for norske forhold - men strategisk er det riktig å velge amerikansk. Det å tro at andre enn USA kan beskytte oss er urealistisk - så får vil heller tåle Donald Trump i noen år.

Merk: Dette er på flere måter en overforenklet forklaring - det å detaljere blir på den annen side gjerne for spesielt interesserte - og de kan lett finne gode engelskspråklige beskrivelser.

Massemedia og Fake-news om klima

Vi er i gang igjen, nå kastet massemedia seg på den ferske strømmen av klima-katastrofale "nyheter" igjen. Vi fikk vite at aldri har det vært så varm hverken på land eller sjø, og viste - hvorfra da? - et bilde av en kalvende isbre. For noen dager siden toppet TV2 og NRK med å fortelle at det vil dø 150.000 mennesker "ekstra" på grunn av økende temperatur i Europa(?).

Dette er vel p.g.a. den pågående varmebølgen i Sør-Europa, glemt er det at i Norden har 2017 til nå vært kaldere enn normalt, kulde-rekorder i Nord-Amerika og Asia det snedde i Midt-Østen -  i vinter, men det er altså bekvemt nok "glemt".

For oss som faktisk holder oss oppdatert på faktiske måleresultater - som er selv fundamentet for anvendt fysikk - er bildet et helt annet. Hentet fra http://www.climate4you.com/Text/Climate4you_June_2017.pdf  offentliggjort av professor Ole Humlum, "The University Centre in Svalbard (UNIS), Norway", følgende utsnitt av grafiske presentasjoner av temperaturutviklingen:

Den globale temperaturutvikling i 2016.10

Den globale temperaturutvikling i 2017.5

Det disse figurlige presentasjonen viser er at temperaturen jevnt over har sunket i de to - tre siste årene, mens massemedia påstår det motsatte. 

Det synes umulig å forene disse to settingene, dvs. enten publiserer massemedia fake-news eller så bedriver de angitte forskningsenhetene massiv forfalskninger av måleresulteter! For å få en bedre mulighet til å velge blant disse to alternativene henstiller jeg til massemedia å kontakte Klimarealistene, i foreningens vitenskapelige råd vil de finne en rekke pensjonerte professorer, særlig med meteorologi som spesialfelt. 

Jeg både håper og tror at massemedia-virksomhetene ser det som sin oppgave å presentere virkeligheten og håper (men knapt tror) av de virkelig ser det som  sin oppgave å finne dette  ut, se èn gang til på dette bildet!.

Selvkjørende kjøretøy er vanskelig - hvorfor det?

Jeg vil i denne bloggen presentere en rekke artikler og AI generelt, selvkjørende kjøretøy (biler, busser, trailere m.v.) spesielt. Disse artklene kan virke litt lang og her presenteres ekstraktet av problemstilligene rundt dette området:

  • Hardware, dvs. de tekniske komponentene. Alle som har sett et kretskort vil nok tvile litt på om dette vil vare en bils levetid ut. Kretskort og andre aktive komponenter, som sensorer, er opprinnelig utviklet for å befinne seg på et skrivebord, dvs.  uten rystelser, fuktighet eller de store temperaturvariasjonene. Dette er motsatt det som skjer i  en bil! I kritiske installasjoner løses dette ved redundans, dvs. at utvalgte  komponenter har en "tvilling", som når som helst kan overta alene. Når en for "selvkjøring" viktig komponent i en bil svikter kan i prinsippet alt skje - redundans vil tross dette neppe bli vanlig. Jeg spår at i fremtiden vil utskiftning av AI-komponenter bli bilverksteders viktigste inntektskilde.
  • Software, dvs. dataprogrammene vil bli store, meget store - for å dekke stadig mer av kjøringen. Virkeligheten er at alle dataprogrammer av noen størrelse har feil også innenfor de områder de er utviklet for -  hvilket i en kjøresituasjon ikke er helt bra! Det store problemet er at det ikke vil være mulig å programmere inn (nær alle) alle situasjoner som kan oppstå undr kjøring.Som et konkret eksempel, jeg kjøpte i fjor en ny SUV med diverse radar-deteksjoner og automatisk bremsing. I Instruksjonsboken ble det imidlertid regnet opp, ca. 50 situasjoner, som systemet ikke fanget opp. Jeg kan på stående fot komme med mange fler!

Derfor, testing og atter testing er den viktigste aktiviteten - ut fra en faglig sett stor skepsis!

Fly-crash og utilstrekkelige AI-systemer

1. juni 2009 skjedde det en tragisk fly ulykke i havet utenfor Brasil - hvor et ganske nytt Airbus A-330 styrtet, flight AF447.

Etter å ha funnet flyets ?svarte boks? (som egentlig er to røde), ble det 4 juli 2013 offentliggjort en avsluttende rapport om ulykken. Rapporten bekreftet dessverre at pilotene kunne faktisk ikke kunne fly under de rådende omstendighetene ? troen på flyets «intelligente»,AI systemer var dominerende. Det mest skremmende er at et enkelt instrument, en ca. 200 års oppfinnelse som heter ?pitot tube?, iset ned og ga ukorrekt informasjon om flyets hastighet.  Dette medførte at den svært så avanserte autopiloten ikke lenger kunne operere og flyverne måtte faktisk overta flyvningen! Pilotene, anført av en flykaptein uten de store organisatoriske evner, fikk store problemer med det å fly. Sjokkerende nok som det høres ut skulle det bli verre, mye verre!

Det siste autopiloten utførte før den slo seg av var å redusere motorkraften og løfte nesen, slik at flyet  etter hvert gikk i et såkalt stall, dvs. falt uten nødvendig løftekraft fra vingene. Høyden var ca.10 km, slik at man hadde god tid til å rette opp flyet. Selv personer som aldri har vært i nærheten av en flystikke, men med en viss kunnskap om det å fly, vet at i et stall skal man senke nesen og gi gass. Akkurat det visste ikke pilotene ? fullstendig lammet av situasjonen - m.a.o. faktisk det å måtte fly manuelt. I de ca. fire minuttene det tok før flyet ble knust i møtet med havet satt pilotene der, uten å foreta det mest selvfølgelige, dvs. å gi gass og senke nesen. Man skal vokte seg vel for å kritisere avdøde personer ? men ? pilotene satt i cocpit fordi de skulle fly og ikke betjene datamaskin-systemer. Denne mangelen på kompetanse kostet altså over 200 personer livet. En god betjent av meg som er tidligere jagerflyver og flykaptein i SAS kunne fortelle at fire minutter i denne sammenheng er "en evighet", dvs. at flyverne hadde all verdens tid til å rette opp situasjonen.

I flykretser heller man stadig mer til at automatiserte flyinstrumentering ikke bare kan gjøre, men faktisk gjør, at piloters essensielle kunnskaper ? det å fly under unormale forhold ? forsvinner mer og mer. Reaksjonene fra piloter i Air France er særlig lite betryggende. I stedet for å vise en viss ydmykhet reageres det med aggresjon ? piloter i dette selskapet kan ganske enkelt ikke gjøre feil, det er det andre som gjør.

Så skjedde det igjen, en flyulykke for et moderne fly, uten noen fornuftig årsak. Det siktes her til at et nesten helt nytt fly, en Boeing 777, crashet ved San Francisco flyplass 6 juli 2013, det var et helt moderne fly og godt vær. Alle spurte seg omgående ? hvordan kunne dette i det hele skje? Det er skremmende likheter med det tragiske flyulykken nevnt ovenfor.

Denne ulykken endte ikke like tragisk som utenfor Brasil i juni 2009, AF 447, men alvorlig nok, idet den kostet flere mennesker livet, foruten et større antall skadede. Her overlevde alle pilotene ? det var i alt tre av dem inkludert en instruktør ? ingen av dem kunne betjene de avanserte AI (kunstig intelligens) systemene skikkelig!

Flyveren stilte inn autopiloten på en hastighet på 253 km/t (137 knop) under innflygingen og det falt ingen av dem inn å sjekke at flyets hastighet forble det ? tiltroen til autopiloten var total! P.g.a. forskjellige forandringer underveis under innflygingen klarte ikke autopiloten å holde denne hastigheten ? eller den helt enkelt slo seg av, dette uten at flyverne merket noe av dette. Som de fleste vil vite er den ved enden av rullebaner enkle lyskilder som forteller flyverne om flyet er fòr høyt, normalt eller fòr lavt. Ved sistnevnte situasjon lyser alle rødt ? og det var akkurat dèt instruktøren oppdaget da flyet var 150 m over bakken. Da var det fòr sent og crashet var et faktum.

Denne enkle beskrivelsen av hendelsen innholder skremmende elementer. For det første var ingen av pilotene oppmerksomme i den fasen som vel er den farligste delen av en flytur; landingen. Situasjonen i cocpit var fullstendig kaotisk, uten noen form for kommandostruktur. For det andre kommer det frem at autopiloten ikke nødvendigvis greier å holde konstant hastighet, foruten at den har i alt fem forskjellige tilstander (modes), og ikke er helt i stand til alltid å kommunisere med autogass-systemet (autotrottle) og andre deler av instrumenteringen. Den komplette flyinstrumenteringen inneholder kanskje 1 million IT programlinjer ? F-35 vil til sammenligning ha ca. 10 millioner. Undertegnede har flere ti-års erfaring i IT systemutvikling og kan garantere at store IT-systemer aldri(!) er feilfrie.

Vi har altså å gjøre med piloter som mangler selve den sentrale kompetansen ? det faktisk å kunne fly uten assistanse fra ? viser det seg ? utilstrekkelige systemer på flyene, bl.a. instrumentering som ikke er helt å stole på, da særlig i kritiske og uventede situasjoner.

Moralen er - ikke tro at kunstig intelligens (AI) i overskuelig fremtid kan overta funksjoner som er kompliserte og lite forutsigbare.

Dette er e`n av en rekke artikler om AI.

Massemedia og klimarelaterte Fake-News

Vi er i gang igjen, nå kastet NRK seg på den ferske strømmen av klima-katastrofale "nyheter". Vi fikk vite at aldri har det vært så varm hverken på land eller sjø, og viste - hvorfra da? - et bilde av en kalvende isbre. I dag toppet TV2 og NRK med å fortelle at det vil dø 150.000 mennesker "ekstra" på grunn av økende temperatur i Europa(?).

Dette er vel p.g.a. den pågående varmebølgen i Sør-Europa, glemt er det at i Norden har 2017 til nå vært kaldere enn normalt, kulde-rekorder i Nord-Amerika og Asia det snedde i Midt-Østen -  i vinter, men det er altså bekvemt nok "glemt".

For oss som faktisk holder oss oppdatert på faktiske måleresultater - som er selv fundamentet for anvendt fysikk - er bildet et helt annet. Hentet fra http://www.climate4you.com/Text/Climate4you_June_2017.pdf  offentliggjort av professor Ole Humlum, "The University Centre in Svalbard (UNIS), Norway", følgende utsnitt av grafiske presentasjoner av temperaturutviklingen:

Den globale temperaturutvikling i 2016.10

Den globale temperaturutvikling i 2017.5

Det disse figurlige presentasjonen viser er at temperaturen jevnt over har sunket i de to - tre siste årene, mens massemedia påstår det motsatte. 

Det synes umulig å forene disse to settingene, dvs. enten publiserer massemedia fake-news eller så bedriver de angitte forskningsenhetene massiv forfalskninger av måleresulteter! For å få en bedre mulighet til å velge blant disse to alternativene henstiller jeg til massemedia å kontakte Klimarealistene, i foreningens vitenskapelige råd vil de finne en rekke pensjonerte professorer, særlig med meteorologi som spesialfelt.

Jeg både håper og tror at massemedia-virksomhetene ser det som sin oppgave å presentere virkeligheten og håper (men knapt tror) av de virkelig ser det som sin oppgave å finne dette ut!

 

 

 

Romfergen - en førtidspensjonert bruksmessig sett suksess

Den USA-utviklede Romfergen var en ubetinget suksess hva angår muligheter til å utføre menneskelige aktiviteter i rommet, men bildet ble skjemmet av to alvorlige ulykker, hvor to besetninger mistet livet. Det er verd å merke seg at mens russerne, tidligere Sovjetrusserne, på flere områder har vært og fremdeles er USA overlegne innenfor deler av romfarts-raketter, gjelder ikke dette de mest kompliserte rakettene. Mer om dette i en senere artikkel.

Den første, av i alt fem, romferger ble slutt opp i 1981, og den siste, av i alt 125 romferder, i november 2010. Først noen tallstørrelser; Ved oppskytningen veier en komplett romferge-"stack" ca. 2.000 tonn, mens romfergen alene veie ca. 100 tonn, inkludert nyttelast på noe over 20  tonn. Dvs. at 95% av vekten ved utskytning utgjøres av drivstoff og motorer for å få den inn i bane rundt jorden. Akkurat dette poenget skal man merke seg  - jordens tyngdekraft er så sterk at de rakettene vi i dag råder over, kjemiske raketter, ikke frigjør særlig stor (løfte-)kraft effektivt i forhold til vekten av selve raketten. Dette setter en meget streng begrensning for vår aktivitet i verdensrommet!

Romferge-stacken består av to faststoff-motorer som brenner i 125 sekunder, og har en løftekraft på ca. 1 million kilopond (dvs. lik 1.000.000 kg på jordens overflate), en dominerende beholder for flytende brennstoff, for å benyttes i de tre rakettmotorer på  selve romfergen, hver med en skyvekraft på ca. 300.000 kilopond. Dette gjør at romfergen får en akselrasjon fra start på ca. 30 m/s`2, og så raskt økende etterhvert som det flytende brennstoffet i den store tanken minker. På ca. åtte minutter er romfergen i godt driv i verdensrommet. Den kunne ta med seg en anseèlig last, og et mannskap på opptil 10 personer. Dette gjorde den til et svært nyttig verktøy for mennesker i verdensrommet.

Hva var det som gikk så galt? Romfergen måtte bli meget komplisert - rett og slett p.g.a. fysikkens begrensninger. For å bli lett nok måtte fergen lages av aluminium, et metall som mykner allerede ved 400 - 500 grader C. Når et legeme  vender tilbake til jorden utsettes det for intens friksjons-varme fra luften den møter, slik at romfergen måtte beskyttes med flere tusen "tiles", dvs. små biter av kunststoff. Dette stoffet har liten mekanisk styrke men tåler de høye temperaturene og leder varme meget dårlig, de er m.a.o. isolerende. Men dessverre - en eneste liten kollisjon kan være, og var, nok til å ødelegge en slik bite. Dette skjedde faktisk med fergen Columbia 1. februar 2003 ved retur til jorden - og den andre romferge-ulykken var et faktum. Man kan konkludere med at romfergen var et skritt for langt for menneskenes nåværende teknologi.

Og nå har vi tatt et flere ti-år langt skritt tilbake. Det nye romskipet, Orion, er betegnet  Apollo på steroider, og er ganske puslete hvis man skal til Mars. Saturn 5 raketten, 50 år gammel, som ble benyttet for å fly Apollo til månen er p.t. den sterkeste som er bygget. SLS er en ny rakett er planlagt å frakte Mennesker tilbake til månen(?), mens unnskyld uttrykket - ville planer - er å frakte mennesker til Mars. Nå venter vi og venter på at Orion og SLS skal komme seg i en lav-jordbane med mennesker om bord, kanskje innen 2020.

CO2 og klima, basert på naturvitenskapelig metodikk

 

Innhold

1.      Innledning. 

2.      Kommentarer. 

3.      Naturvitenskapelig metode. 

4.      Klimautviklingen i 2016 - i stikkords form.. 

5.      «97 prosent av forskerne er enige om at klimaforandringene er menneskeskapte». 

6.      Presentasjon i form av grafer med kommentarer. 

6.1         Varme-effekt av COkonsentrasjonen. 

6.2         Samvariasjon mellom COkonsentrasjon og temperatur. 

6.3         Temperatur-forandring 1975 - 2015. 

6.4         Kvaliteten av IPCC?s fremskrivinger. 

7.      Informasjoner i kortform.. 

7.1         Informasjoner fra spesielle områder. 

7.2         Nordmennene på Grønland og varme og kalde perioder. 

7.3         Resultater fra iskjerner. 

8.      Litt fra Climate4you. 

8.1         Oppdatering for oktober 2016. 

8.2         Oppdatering for juni 2017.

9.      Homogenisering og ekstremvær.

10.         Tolkningen av de presenterte observasjonene.

11.         Fundamentet for IPCC?s scenario om temperaturutviklingen.

12.         Konkluderende bemerkninger.

13.         Referanser. 

 

1.Innledning

Merk: Dette er en oppdatert, rettet og med fungerende figurer, av en tidligere presentert artikkel.

Jeg viser til påstanden om menneskers påvirkning av jorden temperatur;

Det har relevans å diskutere tiltak for å nå, eventuelt ikke nå 1,5 - 2 graders-målet i inneværende århundrede.

Denne premissen bygger på - fra det generelle til det spesielle:

  • Vår evne til, kvalitativt, å forutsi en betydelig økning av jordens temperatur og, kvantitativt, hvor mye den kan eller vil stige avhengig av mengden av vår utslipp.
  • Grunnlaget for denne premissen igjen er for det første at COhar signifikant innvirkning på temperaturforandring, og for det andre at vårt bidrag - menneskeskapt CO2 - er av en slik relativ størrelse at vårt bidrag er relevant.
  • Selve fundamentet for denne premissen er troen på de såkalte tilbakekoplingsmekanismer, sammen med troen på IPCC`s evne til å forutsi klimautviklingen.

Klima er ett av en rekke områder i fysikken og enhver påstand, teori, hypotese e.l. skal tilfredsstille kravene til vitenskap, må disse kontrolleres/etterprøves ut fra de allmenngyldige kravene innen naturvitenskap - se nærmere i kapittel 3.

Dette dokumentets begrensninger

Dokumentet begrenser seg til å behandle CO2-innvirkning på klodens temperatur, både prinsipielt og konkretisert ved presentasjon av kvantiteter ? i hovedsak ved grafiske fremstillinger. Øvrige mere kortvarige påvirknings-årsaker nevnes ikke, som f.eks el ninjo.

2.Kommentarer

Dette skal kommenteres; Det foreligger flere data som beskriver IPCC`s evne til fremskrivninger:

  • IPCC uttalte allerede i 2001 at «I forskning på og modellering av klimaet, bør vi være oppmerksom på at vi har å gjøre med et kaotisk, ikke-lineært koblet system, og at langtids forutsigelser av fremtidige klimatilstander ikke er mulig.»
  • IPCC uttalte i november 2014 «For perioden fra 1998 til 2012 viser 111 av 114 tilgjengelige modellsimuleringer av klimaet en oppvarmingstrend som er større enn observasjonene.» Dette betyr at 97 % av modellene gir feilaktige og fòr høye resultater.

Spesielt nevnes:

  • Havstigningen øker ikke mer enn tidligere, og den kan faktisk flate ut. Stigningen har vært tilnærmet konstant etter slutten av Den lille istiden. Trenden i det 20. århundre er 1,9 +/- 0,3 mm per år. Stillehavsøyene synker forøvrig ikke i havet, og havnivået på Maldivene har sunket med ca 30 cm siden 1960. 
  • IPCC`s manglende evne til i 1998 å forutsi den manglende oppvarmingen frem til nå, den såkalte oppvarmingspausen.
  • Denne manglende korrelasjonen mellom COi atmosfæren og klodens temperatur er visualisert ved figur 1 og 2 nedenfor.

3.Naturvitenskapelig metode

Naturvitenskap bygger på en stringent metodelære, kall det også vitenskapsfilosofi, som er presentert slik av den legendariske Nobelprisvinner Richard Feynman : "Det spiller ingen rolle hvor flott teorien din er. Det spiller ingen rolle hvor smart du er. Hvis teorien din ikke stemmer med eksperimenter, hvis teorien din ikke stemmer med observasjoner, er den feilaktig. Det er alt som betyr noe".

Richard Phillips Feynman (1918-1988) var en av de mest innflytelsesrike amerikanske fysikere i det 20. århundre.

For at en modell, teori, hypotese skal tilfredsstille naturvitenskapelig metode må en rekke krav være oppfylt.  Dette er i korthet at alle resultater av en modell e.l. skal være kontrollerbare, dvs. at uavhengige fysikere skal kunne etterprøve utsagnene/resultatene ved egne utregninger/observasjoner. Hvis dette ikke er tilfelle er det ikke naturvitenskap - det er kun påstander! Som et, for øvrig berømt, eksempel er de uregelmessigheter som ble observert ved Merkurs bane - basert på Newtons gravitasjon-lover alene. Albert Einstein kunne, ved presentasjonen av sin generelle relativitetsteori i 1915, forklare disse uregelmessigheten ut fra denne teorien. Dette ble ved uavhengige observasjoner bekreftet - da først ble øvrige fysikere overbevist.

Derfor; Hvis en eneste relevant måleserie viser signifikante avvik fra f.eks. en modells forutsigelser så må m.a.o. modellen forkastes. IPCC`s mange forutsigelser om temperaturutvikling, herunder sammenheng mellom at COmengden i atmosfæren øker først og så øker temperaturen er feil - se detaljeringer nedenfor - hvis man fremdeles skal forholde seg til naturvitenskap!

For å summere opp; klima-fakta er ikke resultat av avstemninger blant mer eller mindre selverklærte klima-«spesialister» (hvor de mest synlig er politikere), men som følge av en klar metodelære, anvendt på relevante og signifikante målinger.

 

4.Klimautviklingen i 2016 - i stikkords form

Kilder er UAH; University of Alabama Huntsville, som publiserer månedlig avvik fra et gjennomsnitt for perioden 1981-2010 og årsrapport for klimaet i 2016, GWPF: Global Warming Policy Foundation, som publiserer kun observasjoner - ikke resultater fra klimamodeller, sammensatt av professor Ole Humlum.

Et viktig poeng er at fra 2003 har forskjellen på temperatur-estimater (dvs. bearbeidede temperaturer) fra bakkemålinger - og - satellitt-målinger øket gradvis, og estimatene er nå ca. 0,1 høyere enn faktisk målt temperatur i atmosfæren.

Året 2016`s temperaturutvikling startet med en vesentlig økning på vårparten, men i høst har temperatur-utviklingen vært motsatt, det antydes at avkjølingen - ut over middelet i de siste år - er den sterkeste som er målt. Som det uttales fra flere hold så er 2016 og 1998 like varme (eller kalde), innenfor en usikkerhet på <0,1 grad, av IPCC benevnt hiatus. Merk: Målinger over temperaturen i Atlanterhavet viser fremdeles nedgang, se nedenfor.

Året 2016 var (statistisk insignifikant) 0,02 o C varmere enn 1998 med sin +0,48 o C. Estimatet viser at 2016 måtte vært 0,10 C varmere enn 1998 for å være signifikant forskjellig med et 95% konfidensintervall. Dette betyr også ut ifra UAH-tallene at 2016 med ca. 42% sannsynlighet kan ha vært noe kaldere enn 1998 grunnet den iboende måleusikkerheten.
Derfor; Den globale temperatur i 2016 var uvesentlig forskjellig fra det foregående året (eller fra forrige rekord i 1998). Kilde: Klimarealistene

 

5.«97 prosent av forskerne er enige om at klimaforandringene er menneskeskapte»

Selv om konsensus ikke er vitenskapelig relevant, er det sterkt overbevisende for de vitenskapelig ukyndige. Det er derfor nyttig å vite hvordan «97 pst.» ble til.

Konsensus om global oppvarming har blitt definert på tre måter: 1. Uspesifisert: Menneskeaktivitet bidrar til global oppvarming. 2. Standard: Menneskeaktivitet er høyst sannsynlig årsak til mesteparten av den globale oppvarming siden 1950. Og 3. Katastrofal: Våre klimagassutslipp vil få katastrofale følger.

I en undersøkelse (Cook m. fl. 2013) ble sammendrag av 11 944 artikler subjektivt vurdert. Disse ble funnet ved at man søkte på «global climate change» eller «global warming». Man konkluderte med at 97,1 pst. av artiklene støttet standard definisjon. Men 7930 av artiklene hadde ingen konklusjon om dette. En sjekk på datamaterialet (Legates m. fl. 2013), viste at de kun hadde funnet 64 artikler (dvs. 0,5 pst.) som støttet standard definisjon. Over 99 pst. av de 11 944 artiklene hadde altså ikke konkludert med at CO2 var årsak til en overveiende del av temperaturstigningen siden 1950. En nøyere sjekk av disse 64 viste at det kun var 41 som uttrykte støtte i klartekst. Dvs. 0,3 pst. av artikkelsamlingen. Dermed kan vi konkludere at 99,7 prosent ikke ga klar støtte til påstanden om at mesteparten av oppvarmingen siden 1950 skyldes menneskelig aktivitet.

For å få sine 97 pst. hadde Cook m.fl. altså fjernet de 7930 artiklene uten konklusjon og tatt med både dem som støttet uspesifisert og standard definisjon. Det ga 986 artikler eller 25 pst. I tillegg var 2910 artikler som de mente ga «implisitt støtte», lagt til. Da ble det 97 pst «enighet».

Kilde: Klimarealistene

 

6.Presentasjon i form av grafer med kommentarer

6.1Varme-effekt av COkonsentrasjonen

Det er allment akseptert fysikk at sammenhengen mellom CO2  konsentrasjon i atmosfæren og dens varme-effekt ikke lineær. Dette er visualisert i figur 1, og konkret viser grafen at varme-effekten av stigning fra f.eks. 380 til 400 ppm er knapt merkbar.

  

Denne sammenhengen aksepteres også av Cicero, se referanser i siste kapittel.

 

6.2Samvariasjon mellom COkonsentrasjon og temperatur

Den langsiktige graden av samvariasjon mellom CO2 i atmosfæren og temperaturen er vist i denne figuren. Den røde tverrstreken viser dagens temperaturnivå. 

Figur 3 viser temperaturdata målt fra satellitt i perioden fra 1979 fram til i dag. Satellittsystemene måler den nedre del av atmosfæren og har god global dekning.  Man ser at 1998 og 2010 var varmere enn 2014 og 2015. Det er også helt klart at det ikke er noen signifikant stigende temperaturtrend i årene etter 1998, den såkalte varmepausen.  

 

6.3Temperatur-forandring 1975 - 2015

 

 

6.4Kvaliteten av IPCC?s fremskrivinger

 

 

7.Informasjoner i kortform

7.1Informasjoner fra spesielle områder

 

Det er en del områder hvor utviklingen er en helt annen enn det som fremkommer i pressen, her nevnes:

  • Det utvikler seg et kulde-område, med en størrelse på millioner av kvadratkilometer, i Nord-Atlanteren, se særlig de siste målingene fra mai 2017.
  • Is-kappen på Vest- Antarktiske og den Antarktiske halvøy minker i omfang mens is-kappen i Øst-Antarktis, som inneholder ca. 80% av ismassene, legger på seg.

Videre nevnes:

  • Ca. 80% av drivhuseffekten kommer av vann i atmosfæren
  • Ca. 4% av COi atmosfæren er menneskeskapt, dvs. at dette vårt bidrag til drivhuseffekten er knappe 1%.

 

7.2 Nordmennene på Grønland og varme og kalde perioder

Som man vil vite bodde det Nordmenn på Grønland i flere hundrede år, fra ca. år 800 til ca. 1350. De dyrket korn, hadde husdyr og til og med egen biskop. Det var i denne perioden ca. 2 grader varmere enn i dag. I Norge var Hardangervidda skogbevokst, og permafrosten i Sibir smeltet i stor skala - uten at frigjort metan gjorde noen skade! Det forsøkes såes tvil om denne temperaturen, men nevnte fakta kommer man ikke utenom.

For øvrig «slo naturen tilbake» med Den lille istid fra midten av 1500-tallet og i ca. 300 år fremover.

Dette er to eksempler på store temperaturvariasjoner - uten et eneste kullkraftverk og neppe noen biler!

7.3 Resultater fra iskjerner

For noen år siden ble det slått stort opp at ved å undersøke iskjerner fra Grønland og Antarktisk skulle man nå endelig få fastslått at COøker temperaturen. Så ble det stille, dørgende stille. Årsaken er at man fant ut det motsatte - først økte temperaturen og med en tidsforsinkelse CO2 -innholdet i atmosfæren, nøyaktig i henhold til den såkalte Henrys lov, men motsatt FN`s klimapanel (IPCC).

8.Litt fra Climate4you

8.1Oppdatering for oktober 2016

Her presenteres litt av begynnelse/resymeèt fra CLIMATE4YOU UPDATE OCTOBER 2016

October 2016 global surface air temperature overview

 

 

October 2016 surface air temperature compared to the average of the last 10 years. Green-yellow-red colours indicate areas with higher temperature than the 10 year average, while blue colours indicate lower than average temperatures. Data source: Goddard Institute for Space Studies (GISS) using ERSST_v4 ocean surface temperatures.

Comments to the October 2016 global surface air temperature overview

General:  This newsletter contains graphs showing a selection of key meteorological variables for the past month. All temperatures are given in degrees Celsius.

In the above maps showing the geographical pattern of surface air temperatures, the last previous 10 years are used as reference period. 

The rationale for comparing with this recent period instead of the official WMO ?normal? period 19611990, is that the latter period is affected by the cold period 1945-1980. Most comparisons with this time period will automatically appear as warm, and it will be difficult to decide if modern surface air temperatures are increasing or decreasing. Comparing instead with the last previous 10 years overcomes this problem and displays the modern dynamics of ongoing change.

In addition, the GISS temperature data used for preparing the above diagrams display distinct temporal instability for data before the turn of the century (see p. 7). Any comparison with the WMO ?normal? period 1961-1990 is therefore influenced by ongoing monthly mainly administrative changes, and not suited as reference. Comparing with the last previous 10 years is more useful.

The different air temperature records have been divided into three quality classes, QC1, QC2 and QC3.

In many diagrams shown in this newsletter the thin line represents the monthly global average value, and the thick line indicate a simple running average, in most cases a simple moving 37-month average, nearly corresponding to a three-year average. The 37-month average is calculated from values covering a range from 18 month before to 18 months after, with equal weight given to all individual months.

The year 1979 has been chosen as starting point in many diagrams, as this roughly corresponds to both the beginning of satellite observations and the onset of the late 20th century warming period. However, several of the data series have a much longer record length, which may be inspected in greater detail on www.climate4you.com.

October 2016 global surface air temperatures  

General: The average global air temperature was near the average for the last ten years. 

The Northern Hemisphere was near the average temperature for the previous 10 years, but with pronounced regional differences. Most of Siberia, Russia, Europe North Atlantic and Canada had below average temperatures. In contrast, most of the Arctic Ocean and adjoining coastal regions had above average temperatures. Over the central Arctic region, however, the apparent temperature distribution is strongly influenced by the interpolation technique adopted by GISS, as is seen in the lower left diagram on page 2.

Near the Equator temperatures were near or somewhat below the 10-year average.    The Southern Hemisphere temperatures were generally near the previous 10-year average. However, Australia, the Indian Ocean and parts of South America had below average surface air temperatures. In the Antarctic, most coastal regions had above average temperatures.

October 2016 surface air temperature compared to the average of the last 10 years. Green-yellow-red colours indicate areas with higher temperature than the 10 year average, while blue colours indicate lower than average temperatures. Data source: Goddard Institute for Space Studies (GISS) using ERSST_v4 ocean surface temperatures.

 

Comments to the October 2016 global surface air temperature overview

General:  This newsletter contains graphs showing a selection of key meteorological variables for the past month. All temperatures are given in degrees Celsius.

In the above maps showing the geographical pattern of surface air temperatures, the last previous 10 years are used as reference period. 

The rationale for comparing with this recent period instead of the official WMO ?normal? period 19611990, is that the latter period is affected by the cold period 1945-1980. Most comparisons with this time period will automatically appear as warm, and it will be difficult to decide if modern surface air temperatures are increasing or decreasing. Comparing instead with the last previous 10 years overcomes this problem and displays the modern dynamics of ongoing change.

In addition, the GISS temperature data used for preparing the above diagrams display distinct temporal instability for data before the turn of the century (see p. 7). Any comparison with the WMO ?normal? period 1961-1990 is therefore influenced by ongoing monthly mainly administrative changes, and not suited as reference. Comparing with the last previous 10 years is more useful.

The different air temperature records have been divided into three quality classes, QC1, QC2 and QC3.

In many diagrams shown in this newsletter the thin line represents the monthly global average value, and the thick line indicate a simple running average, in most cases a simple moving 37-month average, nearly corresponding to a three-year average. The 37-month average is calculated from values covering a range from 18 month before to 18 months after, with equal weight given to all individual months.

The year 1979 has been chosen as starting point in many diagrams, as this roughly corresponds to both the beginning of satellite observations and the onset of the late 20th century warming period. However, several of the data series have a much longer record length, which may be inspected in greater detail on www.climate4you.com.

October 2016 global surface air temperatures  

General: The average global air temperature was near the average for the last ten years. 

The Northern Hemisphere was near the average temperature for the previous 10 years, but with pronounced regional differences. Most of Siberia, Russia, Europe North Atlantic and Canada had below average temperatures. In contrast, most of the Arctic Ocean and adjoining coastal regions had above average temperatures. Over the central Arctic region, however, the apparent temperature distribution is strongly influenced by the interpolation technique adopted by GISS, as is seen in the lower left diagram on page 2.

 

Near the Equator temperatures were near or somewhat below the 10-year average.    The Southern Hemisphere temperatures were generally near the previous 10-year average. However, Australia, the Indian Ocean and parts of South America had below average surface air temperatures. In the Antarctic, most coastal regions had above average temperatures.

 

8.2 Oppdatering for juni 2017

Her presenteret et utvalg av grafiske fremstillinger, hentet fra http://www.climate4you.com/Text/Climate4you_June_2017.pdf

Figuren viser faktisk en mindre men relevant temperaturnedgang på  store deler av kloden, figurene nedenfor viser den samme tendensen. Merk spesielt temperaturnedgangen ved polene ? informasjonen som presenteres i massemedia må enten være fak-news eller så må disse målingene være det!

 

 

 

9.Homogenisering og ekstremvær

Historiske temperaturdata utsettes i dag for noe som kalles homogenisering. Dette er en form for korrigering av eventuelle målefeil som har forekommet. Imidlertid; korrigering av tidligere tiders målte temperaturer korrigeres stort sett ned, slik at det ser ut som temperaturstigningen fra år 2000 stadig blir større enn den som rådata viser til. Se et godt eksempel på dette i figuren nedenfor.

Homogenisering av temperaturserier. Til venstre ser vi US-temperaturene slik de ble angitt før år 2000, til høyre ser vi at nyere temperaturer er oppjustert, mens eldre målinger er nedjustert. Legg spesielt merke til den store forskjellen rundt år 2000!

Man bør spørre seg hvilken innvirkning fikk det på temperaturdata at antall målestasjoner som ble benyttet plutselig ble fjernet fra bruk i statistikkene. Dette minket tallet på aktive målestasjonene drastisk omkring 1980-tallet, der mange av de rurale stasjonene rett og slett ble kuttet ut, og de varmeste stasjonen ble igjen.

Det fremsettes påstander - dvs. hypoteser ikke egentlige fremskrivinger -  om økende antall tilfeller av ekstremvær, mens dette stemmer dårlig med statistiske data, se figuren nedenfor.   

 

 

10.Tolkningen av de presenterte observasjonene

Ut fra de presenterte observasjoner/målinger kan det ut fra naturvitenskapelig metodelære formuleres:

  • Varme-effekten av den stigende COi atmosfæren er logaritmisk synkende og stigningen videre fremover kan knapt ha noen effekt på temperaturen ? de naturlige variasjonene vil dominere.
  • Sammenhengen mellom COog temperaturen er liten, til dels motsatt.
  • Den såkalte varmepausen (hiatus), som uttrykket av IPCC, vises ved at temperaturen i 2014 og 2015 var så nær temperaturen i 1998 at forskjellene ligger godt innenfor måle-usikkerheten.

11.Fundamentet for IPCC`s scenario om temperaturutviklingen

IPCC`s scenario -  ikke prognose som offentligheten later til å tro - bygger på at menneskets utslipp av COskal medføre en temperaturstigning, og som igjen skal trigge en tilbakekoplingsmekanisme som skal medføre den lenge formulerte temperaturstigning på 1,5 til 2 grader.

Poenget er at IPCC hevder at den beskjedne oppvarmingen som skyldes menneskeskapt CO2 alene vil føre til mer vanndamp, som er en vesentlig kraftigere drivhusgass enn CO2 og at vanndampen vil føre til en temperaturøkning utover den som CO2 ville gitt alene - tilbakekoplingsmekanismen. Dette må i tilfelle være en terskelverdi, som da må ha forekommet i tidligere tider, med enda høyere CO2 konsentrasjon enn i dag, se figuren nedenfor.

Det er viktig å presisere at dette er et scenario/hypotese som ikke er bevist, den mangler også en vitenskapelig holdbar forklaring på at denne tilbakekoplingsmekanismen  ikke har inntrådt tidligere. Denne hypotesen er imidlertid programmert inn i klimamodellene i form av hva programmererne kaller en positiv tilbakekopling. En positiv tilbakekopling gir en forsterkning, i dette tilfellet av temperaturøkningen, som indirekte er antatt å følge den økte konsentrasjonen av CO2.

Man ser i praksis at dette ikke stemmer. Programmererne og deres modeller klarte ikke i 1990-årene å forutsi temperaturutviklingen fra 1998 og framover, altså varmepausen. Og selv ikke på 2000 tallet har programmererne klart å fange opp varmepausen. Mye tyder på at summen av modellenes tilbakekoplinger skal være negativ, det betyr at klimaet og modellene ikke har noen forsterkning, men en naturlig regulerende virkning. Da blir det slik at naturen selv, slik den alltid har gjort, i det lange løp holder temperaturen under kontroll, men med store naturlige variasjoner, over perioder på 10, 100, 1000 år eller mer. 

Modellene feiler. Likevel er all klimapolitikk til syvende og sist basert på dette ene grunnlaget, programmerernes tro på hypotesen om klare positive tilbakekoplinger i naturen og i sine modeller. Positive tilbakekoplinger gir forsterkning, negative tilbakekoplinger virker stabiliserende. Alle observasjoner tyder i dag på at summen av tilbakekoplinger er negativ.

 

12.Konkluderende bemerkninger

Ut fra det som her er vist synes det å være kun èn av to forklaringer som er mulige:

  1. IPCC?s forskjellige scenarier/fremskrivinger/hypoteser er ikke basert på kjent fysikk ? de er feilaktige, like feilaktige som de har vist seg å være til nå
  1. De presenterte måleresultater i form av grafer og enkelt-informasjoner er feilaktige/forfalskede og IPCC?s informasjoner godtas uten videre

Den enkelte henstilles til selv å finne frem relevant dokumentasjon på nettet, og så foreta vurderinger, gjerne i betydelig grad, basert på IPCC`s evne til å foreta korrekte fremskrivinger av klodens temperatur - ikke fra dags dato men fra begynnelsen av 1990-tallet.

13.Referanser

Utvalgt og generell info er hentet fra Climate4You.

Dokumentet «The State of the Climate 2016, av Ole Humlum, kan hentes på adressen: http://www.thegwpf.org/content/uploads/2017/03/State-of-the-climate-2016.pdf

Fortløpende kartlegging av vitenskapelige artikler, presentert av Klimarealistene.

Detaljer, herunder grafene er hentet fra presentasjoner fra vitenskapelige institusjoner, innhentet av cand. real. i fysikk  Stein Bergsmark Fra 2003 tilknyttet HiA/UiA, som leder for studieprogram i IKT, senere også leder for studieprogram i fornybar energi. Foretatt omfattende metastudie om klimavitenskap- og politikk, med påfølgende omfattende foredragsvirksomhet.

Den nær logaritmiske sammenheng mellom stigningen i CO2-konsentrasjon i atmosfæren og dens virkning på oppvarmingen, figur 1 er alment akseptert, bl.a. av seniorforsker ved Cicero, Borgar Aamaas, i endagskonferanse i regì av Naturviterne, 10. november 2016.

Klimabløffene ruller videre

"Den gamle tanta I Akersgata" - les: Aftenposten, har på sensommeren presentert oss for en rekke stort oppslåtte artikler om den tilstundende klimakatastrofen, hvis vi ikke legger om vår livsstil omgående og gjennomgripende. Ifølge klima-avtalen i Paris gjelder dette imidlertid ikke Kina og India, de kan pøse på med CO2-utslipp i hvert fall frem til 2030. De brave journalister og forfattere - eller kanskje de nå titulerer seg «fysikere - er rause med skremslene. Et utsnitt er: «Gjør klimakrisens fakta oss så passive og sløve at vi er i ferd med å gi opp våre barns fremtid.» og - «klimaendringene som «fortvilende og livstruende naturhendelser» og «ufattelige utryddelser av mennesker (og øvrig liv)» basert på «miljøbevegelsens faktafremstilling». Vel - vel; nevnte fakta-fremstilling strider mot grunnleggende naturvitenskapelig metodelære, se min tidligere artikkel om dette - det å påstå at den menneskeskapte økning av CO2 i atmosfæren medfører økt temperatur er enten feil eller så må fysikken skrives om! Det er selvfølgelig utenkelig å håpe på at Aftenposten skal begynne med å innhente genuin kunnskap om fysikk - men allikevel - optimisten som jeg er anbefaler jeg avisens redaksjon å ta en prat bl.a. med astronomer (de som steller med solfysikk). Det er klare tegn til at solen har nådd et maksimum (med utstråling) og at vi ikke kan utelukke en ny «liten istid» om noen år. Men FN`s klimapanel og hjemlig klima-«eksperter» har jo kommet frem til at solen ikke(!) har betydning for vårt klima.

Sagt på en annen måte; Klimabløffene ruller videre

Den teknologiske utvikling-takten

Det skal her, i nær stikkords form, beskrives de siste fire - fem ti-års teknologiske utviklingstakt. Dette konsentreres omkring IKT, fly og romfart/raketter. Det som vanligvis defineres som en rettesnor for utviklingen er den såkalt Moors lov, i dag defineres den som at kapasiteten innenfor IKT fordobles hver 18. måned. Dette gjelder vel og merke innenfor IKT, innenfor fly- og rom-teknologi er bildet et helt helt annet.

Noen utvalgte eksempler fra IKT-utvikllngen, vel og merke hva angår hardware-siden (dvs. de fysiske komponentene). I 1970 hadde den norskproduserte mini-datamaskinen Nord-1, produsert av Norsk Data-elektronikk, en «kladd»-hukommelse (RAM) på 16 - 32 kByte (kByte betyr 1024 8-bit) hukommelse. Prisen kjenner jeg ikke, men den var nok noen ti tusen kroner. I dag har selv en enkel PC 8 - 16 GByte RAM, dvs. et forholdstall i kapasitet på 1 : 500.000. Hvis man tar prisen med i betraktingen, og ser på ytelse/kost (nei IKKE kost/ytelse!) vil man gjerne ha et forholdstall på 1 : flere millioner, og da nærmer man seg Moors lov. Mye nærmere i tidsrom er utviklingen av minnepinner, jeg kjøpte min første, 8M Byte kapasitet, for vèl ti år siden, for noen hundrelapper. Nå får man en minnepinne på 32 GByte (dvs. 4.000 ganger større kapasitet) for under 1/10 av den prisen, dvs. ytelse/pris-forhold på ca. 1:50.000, passende for Moors lov.

Når det gjelder utviklingen av fly, sivile som militære, er situasjonen en helt annen. Verdens mest solgte passasjerfly, Boeing B-737, har en konstruksjonen som er 50 år gammel. Flyet har vokst og fått nye motorer, men cockpit er akkurat den samme, trang og dårlig lydisolert! Airbus A-320 serien er 30 år gammel - heller ingen ungdom akkurat. På bredbuks-siden er det noe bedre. Det er et eneste helt nytt fly tilgjengelig, fra Bomardier, C-100 og C-300. Disse flyene er noe mindre, foreløpig, enn de minste flyene fra Boeing og Airbus. Når det gjelder strids fly er ikke saken mye bedre. Vårt nye jagerfly, F-35(A) fly første gang 2006, og vil ikke bli helt ferdig utviklet (operativt) før rundt 2024 - 2025. Flyet konkurrerer med Rafale fra Frankrike og Gripen fra Sverige, begge fløy første gang på 1980- og 1990-tallet og greier i noen grad å konkurrere med F-35. China har greid å få frem en ny generasjon jagerfly mens Russland strever med sitt nye jagerfly.

På romfart/rakett-siden er ståa enda verre! Romfergen var en nyvinning og muliggjorde en rekke aktiviteter i rommet. Dessverre forulykket to av dem og de ble etterhvert definert som fòr dyre, dvs. fòr kompliserte, og de ble satt ut av drift i 2011, etter vel 30 års bruk. Etterfølgeren i USA er Orion-kapselen, som er kalt «Apollo på steroider». Uansett hvordan man ser det så er dette et stort tilbakeskritt. Mennesket ble brakt til månen v.h.a. Saturn 5 raketten, det er nesten 50 år siden, men ingen nye raketter er pr. i dag like kraftige. Den nye SLS fra USA mener å kunne konkurrere, men først må de få den operativ! I sum har ikke bare utviklingen stått stille m.h.t. romfart, men har på sentrale områder vist en direkte tilbakegang når det gjelder mennesket i rommet. Den eneste oppmuntringen er den internasjonale romstasjonen, det å bringe mennesker frem og tilbake fra den er imidlertid vanskelig, og synes å bli vanskeligere med tiden - merkelig! Det å planlegge en reise til Mars med den tilgjengelige teknologien fremstår ikke bare som en drøm, men som direkte uansvarlig for de mulige romfarerne.

Derfor, teknologi-utviklingen viser dramatiske forskjeller innenfor dominerende områder. Jeg vil beskrive nærmere hvert område for seg senere.

Hvorfor jeg er en "skremt gammel gubbe"

Jeg startet denne bloggen for et par måneder siden med det, kanskje useriøse, psevdonymet «SkremtGammelGubbe», og vil gjerne beskrive hvorfor dette valget.

Det er nemlig flere utviklingstrender som for meg, gamle mannen, synes skremmende:

  • Utviklingen innenfor IKT-anvendelse synes å være nærmest uten kontroll. På tross av gjentagende advarsler lar vi sentrale og livsviktige prosesser i samfundet, som el-forsyning, vann-forsyning og lignende bli styrt av dataprogrammer som kan - og blir - hacket! Det synes å være en nær naturlov at både store selskaper og offentlige institusjoner «setter ut» drift av svært sensitive data og drift til utenlandske selskaper, hvor kontroll av tilgangsrettigheter lett overseès. Dette for å tro at man kan spare litt på driften. Akkurat her er jeg litt-bitte optimistisk, når sentrale personer mister jobben vil dette være en sperre for fremtidige «flauser».

 

  • Det store (tilsynelatende) nye er kunstig intelligens (AI), særlig konsentrert rundt selvkjørende kjøretøy. Her er kunnskapsnivået hos politikere og særlig journalister skremmende lavt, slik at beslutninger vil tas på sviktende grunnlag. Særlig er det uttesting av teknologien, og dens stabilitet, som er et absolutt imperativ for ikke å «tabbe seg ut», nærmest fraværende m.h.t. vektlegging og prioritering.

 

  • Jeg er meget urolig for den demografiske "eksplosjon" - dvs. den nær eksponentielle veksten i folketallet i store deler av Afrika og deler av Asia. Den immigrantstrømmen vi nå ser til Europa er bare en liten start - det å bruke jordens tilgjengelige ressurser vil derfor være en kritisk aktivitet, og det er meget vanskelig å se hvordan man skal greie dette uten å overbelaste klodens ressurser. Dette problemområdet blir ignorert eller tiet i hjel.

 

  • Den globale plastforurensningen er en raskt økende "svøpe", men her er det politisk korrekt kun å snakke om menneskets påvirkning på klimaet - "klimakatastrofe". Enorme summer brukes og skal brukes på å begrense menneskets utslipp av CO2, "livets gass" - uten at det, på naturvitenskapelig metodes grunn, har noen innvirkning. Det mest skremmende av alt er at fysikere, og da mener jeg fysikere ikke «selvlærte» politikere, mens de er i sin karriere ikke tør flagge sin egentlige mening. Det beste eksemplet kan finnes ved å gå inn på sidene til Klimarealistene og sjekke ut Det vitenskapelige råd. Her vil man finne en rekke professor emiriti, dvs. prosessorer som  rett og slett ikke våget å flagge sin overbevisning før de ble pensjonert

 

--- derfor er jeg en skremt gammel gubbe --

«Selvkjørende» kjøretøy - myter og fakta

Vi kan i stadig økende grad lese om forsøk med «selvkjørende» kjøretøy, det være  seg vanlige personbiler, små vare-biler med leveranser fra f.eks. matbutikk, busser i byer og trailere. Disse ut-testingene  beskrives ofte i en euforiske tone, nærmest uten motforestillinger. Virkeligheten skal her - meget kort og ufullstendig - beskrives så godt det lar seg gjøre.

«Selvkjørende» kjøretøy har installert og blir styrt av en type applikasjoner (dvs. meget kompliserte data-programmer) i hovedgruppen kunstig intelligens. Andre typer er applikasjoner for virtuelle leger og roboter m.fl. Det spørsmålet man gjerne stiller seg er hvorfor det egentlig er så vanskelig å lage IT-systemer som virker som kunstig intelligens - en datamaskin regner jo mange millioner ganger så raskt som et stakkars menneske - ? Først og fremst; Det er et fundamentalt faktum i databehandling at et datasystem kan (i beste fall) fungere godt innenfor de områder det er designet for - men er ubrukbart utenfor. Det er derfor fullstendig irrelevant at en datamaskin kan regne svært raskt - når de riktige «regnestykkene» mangler. Kunstig intelligens i denne sammenheng er jo å erstatte/duplisere i størst mulig grad en bilførers aksjoner og reaksjoner ute i trafikken. Det er to fundamentale problemer her. Det første er at et selvkjørende system må ha sensorer som gir god nok informasjon til systemet - hvilket ikke er trivielt. Eksemplet fra USA om at systemet ikke greide å fange opp et stillestående vogntog i motlys er et talende eksempel. I en slik situasjon er det nødvendig med flere enn èn type sensorer, nærmere bestemt både radar- og optisk-type med flere. Det andre er at et IT-system må greie å fange opp annet enn ordinære situasjoner - som er nesten uendelig i sine variasjoner. I dette eksemplet er det meget vanskelig men mulig å programmere inn den nødvendige logikk - dvs. kunstig intelligens.

Aker og Børum Budstikke (Budstikka) hadde i desember 2016 en større artikkel om prøver med utkjøring av mat på Snarøya i Bærum . «Selvkjørende» biler vil oppleve egenartede problemer i vinterlandet Norge, og Snarøya er på mange måter et godt valg for uttesting, med noen gjennomgående og noen spesielle problem-områder. Det vanlige i vårt land er store forskjeller i årstidene. På sommerføre vil disse bilene gjenkjenne fil-merkingen på store veier, lese skilter m.v. Problemene vil melde seg når det går over til smale veier av raskt forandrede typer, ofte med diffuse forskjeller mellom vei, grøft og veiskulder med gress. På vinteren vil det melde seg andre og større problemer, veimerkingen blir i stor grad borte og med brøytekanter av raskt forandrede høyder. På Snarøya, med en rekke smale villa-veier med parkerte biler, vil en vanlig virtuell intelligens applikasjon medføre hyppige høyprofilerte fast-kjøringer. Enda verre er raske forandringer i føreforholdene, vi mennesker oppfatter raske skiftninger fra bar til is til underkjølt regn - noe som vil stille meget store krav til den selvkjørende bilen. Det finnes ikke noe system som sette ned farten før en glatt vei møtes, mens vi mennesker benytter vår samlede erfaring - vårt skjønn - til ofte(!) å kunne sette ned farten tidlig nok.

Et viktig punkt i presentasjonen av selvkjørende kjøretøy er «evnen» til å lære. Forutsetningene for «læring» er imidlertid omfattende og kompliserte, og skal her belyses meget kort og ufullstendig - sett fra en kompilatorutviklers ståsted. For det første må det defineres hva som skal læres, deretter hvilke sensorer som skal benyttes for informasjons-fangsting som grunnlag for læringsprosessen, hvordan denne informasjonen skal behandles, og som et resultat; hvilke justerte og hvilke nye funksjoner som skal kunne utføres.

Den ene ytterlighet av læringen er justeringer og utvidelser av allerede programmerte aksjoner, den andre er helt nye aksjoner som krever ny generert maskinkode - dette siste av logikk i selve lærings-programmet. Sagt på en annen måte; fra nye tallstørrelser som benyttes av såkalt interpreterende kode til ny maskinkode.

Hovedproblemet for almenheten ved innføringen av selvkjørende kjøretøy er manglende kunnskapsbasert evne til å stille de riktige spørsmålene til leverandørene - her vil de av oss som har denne kompetansebakgrunnen kunne hjelpe - man da må vi forespørres om det.

Vi kan vente oss en gradvis utvidelse av «godheten» for «selvkjørende» kjøretøy - hvilket er et betydelig gode, men dette forutsetter m.a.o. en realistisk tilnærmelse til disse nye kjøretøyene.

Isfritt Nordpolen - om en eventyrfortelling

Vi blir med uregelmessige mellomrom fòret med fortellingen om at Nordpolen snart blir isfritt og at pol-isen stadig minker i utbredelse. Først litt gjentagelse av noen nøkkeltall om CO2 og mennesket; 

Menneskeskapt CO2 står for <1% av drivhuseffekten, og verdens privatbiler står for ca. 10% av det igjen. Iskappen i Øst-Antarktis legger på seg - der +80% av isen i Antarktis er, is-mengden på Grønland øker, likeledes is-utbredelsen ved Nordpolen - men vi koker altså kloden. Bildet viser forholdet mellom is-mengden i 1971 og i 2017, og den vokser i år raskt. Etter 3 uker med pluss-grader på Grønland er det igjen minusgrader - og is-vekst.


(Asker og Bærum) Budstikka kunne i gård bidra med en utilsiktet men viktig informasjon, idet ishavs-skuta "Maud" ventet på å bli fraktet tilbake til Norge. Men - "fortsatt ligger den beryktede Nordvestpassasjen tettpakket med is, men i midten av august er håpet at farvannet skal åpne seg slik at slepet av Roald Amundsens berømte skute kan begynne." Nordvestpassasjen skal jo ifølge de førende klima-"eksperter" snart være isfri - vi venter og venter!

Til slutt en pinlig spørsmål til journalister - hvorfor får vi ikke vite om utviklingen av is-utbredelsen?

Forsøk på klima-dialog med Stortingsrepresentanter

Jeg har nå på ettersommeren forsøkt å presentere litt om jordens klima basert på fysikk og fysikk alene, og har sendt representanter for partiene Høyre, Arbeiderpartiet, Venstre, Fremskrittspartiet og MDG en kort presentasjon.

Særlig er jeg interessert i en dialog med MDG ? jeg er, eller helst var, fast i troen på at et så klima-fiksert parti alltid er på søk etter naturvitenskapelig basert informasjon.

Her er denne korte dialogen:

Rasmus Hansson:

Vedrørende menneskeskapt klima-påvirkning

Utløsende årsak til denne henvendelsen er meldingen om at Concerned Scientists Norway forøker å presse kandidater til Stortingsvalget til høsten, til å underskrive et opprop om rask og fundamental omlegging av samfunnet ? ut fra den ubetingede oppfatning av at mennesker påvirker jordens klima i stor grad. Ut fra det jeg skjønner har du naturvitenskapelig utdannelse ? og jeg antar at du derfor er (absolutt) tilhenger av naturvitenskapelig metode.

Disse to momentene synes å stå i sterk motstrid med hverandre, og jeg «utfordrer» deg derfor til ? på fysikkens grunn ? å betrakte de momentene i sammenheng.

Nå henviser jeg til Klimarealistene. Hvis du går inn på deres hjemmesider og slår opp på forenings vitenskapelig råd vil dere finne bl.a. en rekke pensjonerte professorer med den faste jords fysikk, herunder jordens klima, som fag. Tvert imot det man kan få inntrykk av ved å lese i pressen består ikke foreningens medlemmer av «uvitende gamle menn», men har en samlet kunnskap som overgår det meste innenfor fysikk. Det skremmende er at de fleste professor emeriti ikke flagget sin overbevisning før de pensjonerte seg! Har du noen kommentarer her?

Nå er ikke jeg medlem av denne foreningen, jeg er kun cand. real. med fysikk hovedfag, har ikke doktorgraden og vil derfor ikke kunne bidra faglig.

Ganske ubeskjedent vedlegger jeg mitt sammendragsforsøk om jordens klima ? henstillingen til deg er; Finn en feil! Se særlig kapittel 3 og 13. Videre viser jeg til http://www.thegwpf.org/content/uploads/2017/03/State-of-the-climate-2016.pdf og månedlige oppdateringer, siste er http://www.climate4you.com/Text/Climate4you_June_2017.pdf

Derfor: Du kan selvfølgelig ignorere denne invitasjonen til meningsutveksling på fysikkens grunn ? særlig p.g.a. det tilstundende Storingsvalget ? men mine poenger blir jo ikke borte, og, selv om jeg er et mr. Nobody så vil jeg forfølge dette etter beste evne.

Uansett om vi er rykende uenig; Jeg ønsker deg en god og saklig valgkamp og et resultat som følge av det

Og så raskt svar:

Hei Bjørn, og takk for eposten!

 

Som du nok kjenner til baserer De Grønne sin politikk på vitenskap. Som du skriver i teksten din er det vitenskap som er etterprøvd, kritisert og justert i så mange runder at man med stor sannsynlighet kan si at det stemmer. Det kommer ikke tydelig fram hvilke påstand du er kritisk til, men De Grønne jobber for et samfunn hvor vi tar de menneskeskapte klimaendringene på alvor, og tar grep for å bruke de tilgjengelige ressursene innenfor jordas tålegrenser.

 

De Grønne ønsker en opplyst samfunnsdebatt basert på fakta, og vi ønsker deg velkommen til å delta i den offentlige debatten.

 

Vennlig hilsen

Kristin Viko Gaupset
Gruppesekretær
Miljøpartiet De Grønne

Dette var «med respekt å melde» «goddag mann økseskaft», idet jeg jo etter spørr kriterie-oppfyllelse med henvisning til naturvitenskap ? påstandene om menneskers vesentlige  klima innvirkning er jo ikke det.

Jeg svarte:

Hei igjen:

Takk for raskt svar ? her er det grunnlag for en diskusjon på fysikkens grunnlag, jeg vil igjen henvise til mitt lille dokuments kap. 3 ? er dere komfortable med dette strenge  kriteriet for hva som er fysikk?

Det er jeg kritisk til er at klimaendringene overhodet har noe med menneskapte aktiviteter å gjøre ? ut fra imperativet nevnt ovenfor. Nå har ikke jeg tilgang til grunnlagsdata som jeg refererer til i mitt dokument ? hvis dere er virkelig interessert kan jeg henvise dere til Klimarealistene, der vil dere av medlemmer  i det vitenskapelige råd få all den detaljhenvisning til grunnlagsdata som dere måtte ønske. Sagt på en annen måte ? tar jeg feil i mine data-spesifikasjoner i mitt lille dokument?

 

På den annen side ? jeg er meget urolig for den demografiske ?eksplosjon? - dvs. den nær eksponentielle veksten i folketallet i  store deler av Afrika og deler av Asia. Den immigrantstrømmen vi nå ser til Europa er bare en liten start ? det å bruke jordens tilgjengelige ressurser vil derfor være en kritisk aktivitet, her er det sammenfallende interesser.

 

Og til slutt; plastforurensningen er en raskt økende ?svøpe?, her kan dere være en spydspiss når det gjelder bruk av nedbrytbar plast!

 

«Dett var dett», idet jeg fikk til svar:

Hei Bjørn, takk for betraktningene.

 

Vi vil ikke kommentere dokumentet utover det jeg skrev i eposten under.

 

Med ønske om en fortsatt god dag!

 

Vennlig hilsen

Kristin Viko Gaupset
Gruppesekretær
Miljøpartiet De Grønne

MDG ønsker tydeligvis ikke å foreta en meningsutveksling på fundamentet om hvordan påstandene om «at klimaendringene overhodet har noe med menneskapte aktiviteter å gjøre ? ut fra imperativet nevnt ovenfor.».

Litt om naturvitenskapelig metode

Naturvitenskap bygger på en stringent metodelære, kall det også vitenskapsfilosofi, som er presentert slik av den legendariske Nobelprisvinner Richard Feynman : "Det spiller ingen rolle hvor flott teorien din er. Det spiller ingen rolle hvor smart du er. Hvis teorien din ikke stemmer med eksperimenter, hvis teorien din ikke stemmer med observasjoner, er den feilaktig. Det er alt som betyr noe".

Richard Phillips Feynman (1918-1988) var en av de mest innflytelsesrike amerikanske fysikere i det 20. århundre.

For at en modell, teori, hypotese skal tilfredsstille naturvitenskapelig metode må en rekke krav være oppfylt.  Dette er i korthet at alle resultater av en modell e.l. skal være kontrollerbare, dvs. at uavhengige fysikere skal kunne etterprøve utsagnene/resultatene ved egne utregninger/observasjoner - og at alle skal viser samme resultat. Hvis dette ikke er tilfelle er det ikke naturvitenskap - det er kun ikke-vitenskapelige påstander! Som et, for øvrig berømt, eksempel er de uregelmessigheter som ble observert ved Merkurs bane - basert på Newtons gravitasjon-lover alene. Albert Einstein kunne, ved presentasjonen av sin generelle relativitetsteori i 1915, forklare disse uregelmessigheten ut fra denne teorien. Dette ble ved uavhengige observasjoner bekreftet - da først ble øvrige fysikere overbevist.

Derfor; Hvis en eneste relevant måleserie viser signifikante avvik fra f.eks. en modells forutsigelser så må m.a.o. modellen forkastes. IPCC`s mange forutsigelser om temperaturutvikling, herunder sammenheng mellom at COmengden i atmosfæren øker først og så øker temperaturen er feil. For noen år siden ble det slått stort opp at ved å undersøke iskjerner fra Grønland og Antarktisk skulle man nå endelig få fastslått at COøker temperaturen. Så ble det stille - dørgende stille. Årsaken er at man fant ut det motsatte - først økte temperaturen og med en tidsforsinkelse - på ca. ett år - CO2 -innholdet i atmosfæren, nøyaktig i henhold til den såkalte Henrys lov, men motsatt FN`s klimapanel (IPCC).

For å summere opp; klima-fakta er ikke resultat av avstemninger blant mer eller mindre selverklærte klima-«spesialister» (hvor de mest synlig er politikere), men som følge av en klar metodelære, anvendt på relevante og signifikante målinger - som alle bekrefter (i denne sammenheng) den/de anvendte klimamodeller. Hvis en eneste relevant måle-serie viser motsatte resultater må modellen(-e) forkastes!

Neste gang skal jeg komme inn på den såkalte «normalisering», som den utføres av IPCC. I praksis består dette i på den ene siden å justere ned tidligere temperaturmålinger, og på den andre siden «normalisere» opp de løpende temperaturmåle-resultater.

Jordens klima og eventyrfortellinger

Dette er den første i en lang rekke artikler om jordens klima og dets utvikling. I den neste artikkelen vil jeg ta for meg naturvitenskapelig metodikk og filosofi, kort fortalt overordnede regler for beskrivelse og presentasjon av naturvitenskapelige - konsentrert rundt fysikk - hypoteser, teorier og modeller, for at det skal benevnes naturvitenskap og ikke ubegrunnede påstander.

Akkurat denne artikkelen er reaksjoner på en stort oppslått kronikk i Aftenposten; «Varsko fra isen» av en journalist i Aftenposten (Odd Idar Pihlstrøm) ? som åpenbart raskt har blitt fysiker.

Vi blir i denne artikkelen presentert flere informasjoner av mange slag, bl.a. avsmelding av isbreène på Grønland og Antarktis, og av stigningen av havnivået. Journalisten nøye med sine påstander om Antarktis, og prøver seg med det meningsløse «Også den marinbaserte megabreèn Totten i Øst-Antarktis viser tegn til retrett». Dette er fake-news så godt som noe, idet på Øst-Antarktis, hvor 80+ % av isen i Antarktisk befinner seg, øker i volum! Tallstørrelsen om isavsmeltingen på Grønland og i Vest-Antarktis oppgis, men ikke den større is-veksten i Øst-Antarktis.

Og så har vi stigningen av havnivå da, med skrekk-tall over økningen.

Professor Nils-Axel Mörner, som er tidligere leder av institutt for Paleogeofysikk & Geodynamikk ved Stockholm Universitet og medlem av Klimarealistenes Vitenskapelige Råd, uttalte i februar i år: «Også havnivå data ble manipulert for å oppnå det maksimale skrekkscenario med en kommende generell oversvømmelse.»




Overstående figur kommenterte han slik: «Den stigende skrå kurven gir satellittmålinger fra NOAA i 2015, noe som gir en stigende trend på 2-9 ± 0,4 mm/år. Det gule feltet markerer feltet observasjonsfakta. Både den opprinnelige satellittaltimetrien (rød linje) og tyngdekraften (blå linje) var subjektivt - dette er «manipulasjonen» - løftet opp for å stemme overens med den stigende trenden i NOAA-kurven.»

Videre: «De første GRACE gravitetsmålingene ga en nedgang i havnivå på 0,12 ± 0,06 mm/år (blå linje i figuren). Denne målte verdien ble hypotetisk «korrigert» for global isostasi, slik at den passet med satellitthøydemålingenes korrigerte trend som markert med en pil og en rosa linje.

Observasjonsfakta ligger innenfor den gule sonen i figuren. Når NOAA- og UC-postene vippes tilbake til originale målinger (dvs. fjerner de såkalte «korreksjonene»), faller begge poster innenfor den gule sonen, NOAA ved 0,45 mm/år og UC ved 0,65 mm/år (dvs. begge sammen ved 0,55 ± 0,1 mm/år). Og nå er registreringene fra satellittaltimetrien helt enige med observasjonsfakta. Det innebærer at satellittaltimetrien har blitt vesentlig manipulert for å dokumentere en sterk økning i verdens havnivå, noe som er et av hovedspørsmålene for skrekkscenariet for global oppvarming.»

Aftenposten ? som massemedia for øvrig - må jo stå fritt i å velge ut journalister som fakta-bærere når det gjelder utviklingen av jordens klima. På fysikkens grunn er det nok best å velge anerkjente fysikere, helst fysikere som er pensjonert ? det er nemlig bemerkelsesverdig hvor mange det er som skifter mening så snart de pensjoneres. Meningsterror het det på godt norsk.

Kildehenvisninger:
[1] Mörner, N.-A., 2017. Coastal morphology and sea-level changes in Goa, India, during the last 500 years. Journal of Coastal Research, in press.
[2] Mörner, N.-A., 2016. Sea level changes as observed in nature. In: Easterbrook, D.J. (ed.), Evidenced-Based Climate Science, 2nd edition. Amsterdam: Elsevier, pp. 219?231.
[3] Mörner, N.-A., 2011. The Maldives as a Measure of Sea Level and Sea Level Ethics. In: Easterbrook, D.J. (ed.), Evidence-Based Climate Science, Elsevier, Amsterdam, Chapter 7, pp. 197-209.
[4] Mörner, N.-A., 2015. Glacial isostasy: Regional ? not global. International Journal of Geosciences, 6, 577-592.

Lærenemme datamaskiner

Det å «oppdra» en robot - egentlig en eller flere datamaskiner inneholdende store IT-systemer - til å lære av egne «erfaringer» er det nyeste nye innenfor kunstig intelligens, og fremstilles som en stor og viktig egenskap. Dette mystifiseres imidlertid, f. eks. ved at «vi vet ikke helt vet hva som foregår» - når datamaskiner lærer av egne erfaringer. Man leter forgjeves etter forklaring på hva dette egentlig innebærer - særlig siden dette er et hovedelement i det å gjøre datamaskiner mer «intelligente».

Det er fremdeles slik at det eneste en datamaskin «forstår», dvs. kan utføre (eksekvere) er   maskinkode.  «Læring» av datamaskiner må nødvendigvis være en eller annen kombinasjon av eksisterende maskinkode (bestående av bytes = 8 binære tall) med nye data som mates inn, og ny generert maskinkode (av datamaskinen selv).

Forutsetningene for «læring» er omfattende og kompliserte, og skal her belyses meget kort og ufullstendig - sett fra en kompilatorutviklers ståsted. For det første må det defineres hva som skal læres, deretter hvilke sensorer som skal benyttes for informasjons-fangsting som grunnlag for læringsprosessen, hvordan denne informasjonen skal behandles, og som et resultat; hvilke justerte og hvilke nye funksjoner som skal kunne utføres.

Den ene ytterlighet er justeringer og utvidelser av allerede programmerte aksjoner, realisert ved nye data, den andre er helt nye aksjoner som krever ny generert maskinkode - dette siste av logikk i selve lærings-programmet. Sagt på en annen måte; fra nye tallstørrelser som benyttes av såkalt interpreterende kode til ny maskinkode.

Dette belyses med et konkret eksempel som er vist i et TV-program; en robot som tar opp en drill og borer et hull i en vegg - og anta nå at den skal læres opp til å drille hull i vegger av en annen type. Dette krever flere sensorer; en sensor som måler trykket mot veggen, en som «hører» om drillen blir overbelastet, og en som måler bore-hastigheten. Måleresultatene må så bli sammenlignet opp mot på forhånd lagrede lyd-profiler, og sammenstilt med de to andre måleresultatene - v.h.a. en på forhånd programmert logikk. Resultater av dette blir så lagret i en databank - i form av tabeller - som roboten benytter for neste boring. Den har m.a.o. «lært» å bore i flere typer vegger. Hvis nå roboten skal «lære» å skifte bor, variere drillens hastighet og lete etter avmerking for hvor et hull skal drilles, vil dette kreve mye ny logikk - dvs. kode kompilert til maskinkode. Her er det to muligheter; mennesker programmerer disse utvidelsene - og/eller - systemet inneholder logikk som generer hele eller deler av den nye maskinkoden.

Dette er et konkret eksempel, med tillegg av en tenkt men ikke urealistisk lærings-aktivitet, som både virker som og faktisk er en meget komplisert type oppgaver. Ved generering av ny maskinkode vil det aktuelle AI-systemet, applikasjonen, være forskjellig fra alle andre roboter, en sammenstilling av ny logikk (ny maskinkode) fra flere applikasjoner vil derfor være noe nær et vedlikeholdsmessig mareritt.  

For å sette mennesker vs. roboter i et helt dagligdags perspektiv; hvorfor har ingen til nå greid å konstruere en robot som kan gå fullt og helt som et menneske? Her har vi på den ene siden mennesket med sin hjerne - her i hovedsak lillehjernens 200 - 300 underbeviste justeringer pr. sekund, som styrer små og store involverte muskler. På den andre siden har vi en/flere datamaskiner med en regnekapasitet på mange MFlops (millioner tall-operasjoner pr. sekund) og tilgang til alle de små og store motorer man måtte ønske seg for å justere robotens «ganglag». Datamaskinen er millioner ganger raskere enn hjernen, men greier ikke å dublisere menneskehjernen i denne sammenheng. Programmeringen av «ganglaget» er faktisk meget vanskelig, mens man i utgangspunktet kunne anta at dette er en enkel aktivitet «for en robot».

En konklusjon er at selv det vi mennesker anser som selvsagte og enkle operasjoner ofte vil være vanskelige å programmere inn i roboter. Vi vil høre stadig oftere om «lærenemme» roboter, men selve lærings-funksjoner meget vanskelig å programmere inn - og vil kreve svært kompliserte regler for oppdateringer - det vil i overskuelig fremtid måtte bli komplettert med menneskeskapte utvidelser i IT-systemene.

Kunstig intelligens - AI (artificial intelligence)

 

Den store «hypen» i dagens IT er AI, definert i all korthet som: «Kapasiteten til en datamaskin, egentlig et (logisk sett) datamaskinprogram, en applikasjon, til å utføre operasjoner som er analoge med læring og beslutningsprosesser hos mennesker». Dette er ikke småtterier, og særlig journalister har lett for å miste bakkekontakten ved beskrivelse av AI.

Man leter forgjeves etter forklaring på hva AI egentlig er. Og ikke er.  Med min bakgrunn som kompilator-utvikler vil jeg i flere korte artikler beskrive min forståelse av AI, sette «innenfra og ut», dvs. hvordan AI-systemer virker, sett fra mitt ståsted. Det er nemlig vesentlige funksjonslikheter mellom en kompilator og en AI-applikasjon.  Jeg hadde i fjor tre artikler i finanspressen innenfor avledede evner av AI, og vil gjerne her skrive ut beskrivelsene uten de strenge kravene til artikkel-størrelser. Dette er imidlertid avhengig av at noen er interessert; uten det kan det synes lite relevant å presentere en rekke beskrivelser. På den annen side - hvis det jeg presenterer vekker interesse vil jeg etter beste evne respondere, med detaljering, av mine beskrivelser.

Litt grunnleggende først

Det er fremdeles slik at det eneste en datamaskin (selv den dyreste og raskeste), «forstår» dvs. kan utføre (eksekvere), er maskinkode. Maskinkode består av en eller flere bytes = 8 binære tall. All informasjon som lagres digitalisert, så vel bilder som tale (audio), tallstørrelser og logikk m.m.  «Læring» av datamaskiner må nødvendigvis være en kombinasjon av eksisterende maskinkode (bestående av bytes = 8 binære tall) med nye data som mates inn - og ny generert maskinkode (av datamaskinen selv).

Områder som utvikles raskt og vel er av generell interesse

  • Selvkjørende kjøretøy (dvs. biler, busser og andre kjøretøy)
  • «Selvflyende» fly, dvs. raskt økende automatisering av fly
  • Roboter av alle andre slag enn kjøretøy, av særlig interesse er:
  1. Roboter som utfører arbeidsoperasjoner, fra de enkleste til de mest avanserte
  2. Roboter som erstatter pleiere i noen (og økende) grad, sentralt i den kommende eldrebølgen
  • Medisinske systemer, «IT-leger»; fra diagnostiserings-systemer til robotiserte operasjons-systemer
  • Til slutt bør det nevnes den økende grad av AI innen våpensystemer

Noen av områdene følger jeg bra med og kan skrive ganske detaljer om mens de andre (de fleste) vil kreve at jeg kommer i dialog med spesialister for å kunne presentere bra informasjon.

Ny blogg!

Velkommen til blogg.no! :)

Dette er det aller første innlegget i din nye blogg. Her vil du finne nyttig informasjon, enten du er ny som blogger eller har blogget før.

Trenger du litt starthjelp finner du våre hjelpesider her: http://faq.blogg.no/, og vår engasjerte supportavdeling er tilgjengelig (nesten) 24/7.

Bloggen
Ønsker du å gjøre den nye bloggen din litt mer personlig anbefaler vi at du fyller ut profilinfo, og velger et design som passer til deg. Vil du bare komme i gang med bloggingen kan du starte et nytt innlegg.

Hashtags
Blogg.no bruker hashtags for å samle innlegg som handler om samme tema. Hashtags gjør det lettere å finne innlegg om akkurat det temaet du søker. Du kan lese mer om hashtags her: http://hashtags.blogg.no/

Andre nyttige sider
Infobloggen: http://info.blogg.no/
Vårt regelverk: http://faq.blogg.no/infosider/retningslinjer.html
Vilkår for bruk (ToS) og integritetspolicy: http://faq.blogg.no/?side=omoss

Nå som du har lest dette innlegget kan du redigere det eller slette det. Vær dog oppmerksom på at det alltid må være minst ett innlegg i bloggen for at den skal fungere - det er for eksempel ikke mulig å redigere designet uten at det finnes innlegg i bloggen.

Når du skal logge inn neste gang kan du gjøre det fra vår forside på http://blogg.no/.

 

Vi håper du vil trives hos oss!

hilsen teamet bak
blogg.no

 

blogg.no | logg inn | hjelp | regelverk | vilkår | om oss | kontakt oss | infobloggen

 

Les mer i arkivet » August 2017 » Juli 2017 » Juni 2017
bjørn brevik

bjørn brevik

72, Bærum

En av de første med cand. real. graden, fra Universitetet i Oslo 1973, med hovedfag konsentrert rundt avansert IT, nærmere bestemt basis programvare (system software). Hovedinteresse er å følge med i utvikling av (applikasjoner med funksjonstype) kunstig intelligens, AI, og bidra til øket forståelse av denne utviklingen. Videre vil jeg presentere i stikkords form elementer av den faste jords fysikk - underområde jordens klima - vel og merke på fysikkens grunn

Kategorier

Arkiv

Siste innlegg

Siste kommentarer

Lenker

hits