Designing for Truth: Google Scholar Concept

Se for deg at du våkner en morgen til en e-postmelding fra tanten din og advarer deg om ikke å vaksinere den nyfødte sønnen din. Du åpner bekymringsfullt lenken og leser at en studie publisert i The Lancet (en av de mest anerkjente vitenskapelige tidsskriftene i verden) har funnet ut at vaksiner forårsaker autisme. PDF-en til selve studien virker legitim, men din mangel på medisinsk kompetanse forhindrer deg i å forstå eller lett diskreditere den. Det er tross alt utgitt av The Lancet, har et titalls sitater, og artikkelen gir et rimelig argument. Du kan velge å forske videre, men noen kan bare være overbevist og dele det på Facebook for å advare andre foreldre om farene ved vaksinasjon.

Slik skjer feilinformasjon.

Den aktuelle studien er faktisk forfatterforfatter av Andrew Wakefield og publisert i The Lancet i 1999. Men det tantenes artikkel utelatt er at studien er trukket helt tilbake i 2010 på grunn av datamanipulering og Wakefields medisinske lisens er blitt tilbakekalt. Hendelsen har blitt ansett for å bli ansett for å være en viktig katalysator for anti-vaksinasjonsbevegelsen, som er ansvarlig for utbrudd av tidligere kontrollerte sykdommer som meslinger og kusma, noe som fører til mange dødsfall.

Sannhetskompass

Vi er midt i en epistemologisk krise som et resultat av frodig informasjon som vi enten ikke har tid eller kompetanse til å bekrefte. Selv om den ikke er perfekt, er vitenskap det beste verktøyet vi har for å komme fram til sannheten, ettersom den produserer de grunnleggende fakta som meninger, tro og verdenspolitikk er basert på. Imidlertid er det mange utfordringer med å identifisere troverdig forskning:

  1. Teknisk sjargong, tett tekst og hyppige lønnsvegg gjør rekkevidde utenfor rekkevidde at vitenskapelig forskning er praktisk talt utilgjengelig for massene, og lar oss stole på media for oversettelse.
  2. Overdrivet - mediene forenkler og sensualiserer ofte funn for å generere annonseinntekter og utvanne sannheten ytterligere.
  3. Dynamisk verden, statisk info - mest info publisert i dag er satt i stein med mindre manuelt oppdateres. Dette er spesielt farlig for vitenskapen, ettersom det alltid utvikler seg - det som er bevist i dag, kan bli motbevist i morgen og omvendt.
  4. Studier av sitering av kaninhull siterer ofte 20–50 andre studier. Hvis en av disse studiene er trukket tilbake, bør det da ikke påvirke troverdigheten til noen studier som siterer den?
Hvordan skal vi vite om en studie i en artikkel er revidert eller trukket tilbake?
Hvor troverdig er en studie som siterer tilbaketrukne eller utdaterte studier?
Publiseres en studie av en privat organisasjon med interessekonflikt?
Har forfatteren en dokumentert historie med svindel?

Nåværende innsats som RetractWatch.com holder oversikt over inntatte papirer, sammen med de mest siterte tilbaketrekningene og en toppliste for forfattere med høyest tilbaketrekning. Selv om et skritt i riktig retning, er det tunge og ikke skalere å besøke et nettsted hver gang du vil bekrefte en studie eller en forfatter.

Google Scholar nettleserutvidelse

Kanskje et av Googles mer undervurderte prosjekter er Google Scholar - en gratis database med ~ 150 millioner fagfellevurderte akademiske tidsskrifter, bøker, konferanseartikler, avhandlinger, avhandlinger og til og med rettsuttalelser og patenter.

Jeg ser for meg en Google Scholar-nettleserutvidelse som oppdager tilbaketrukne eller utdaterte dokumenter, advarer om sitatens sitering ikke lenger er gyldig, varsler forfattere med dokumentert svindel og varsler om privatfinansierte studier, i håp om å hjelpe leserne med å etablere troverdighet.

La oss se tantenes artikkel fra tidligere med Google Scholar-utvidelsen installert:

Når du åpner artikkelen, advarer Google Scholar-nettleserutvidelsen deg om at det er oppdaget en dårlig studie i artikkelen:

Når du begynner å lese, merker du at en lenke til den aktuelle studien er uthevet:

Hvis du klikker på "Vis detaljer" eller utvidelsesikonet, får du informasjonskort med flere detaljer:

Infokort består av 7 seksjoner:

  • Advarsel (hvis aktuelt).
  • Dokumenttype: dokumentets navn og kobling.
  • Utgiver: utgiverens navn, dato, kilde
  • Forfatter: Navn, tittel, institusjon, medforfattere,
  • Institusjon: Navn, privat eller offentlig
  • Info bar: sitert etter nummer, relaterte artikler og last ned (hvis aktuelt)

Det er forskjellige alvorlighetsgradstilstander for hvert UI-element i utvidelsen:

I tilfelle av flere dokumenter, viser utvidelsesikonet antallet dokumenter med høyeste alvorlighetsgrad (hvis det er 2 tilbaketrukket og 4 ikke-klassifisert, blir ikonet rødt med tallet 2)

Infokortkoblinger fører til Google Scholars tilsvarende sider:

Undersøkelser

Jeg startet med å forske på hvordan informasjon ble spredt og konsulterte en doktorgradsvenninne av meg. Jeg kartla forholdene mellom de største aktørene i det vitenskapelige nyhetsøkosystemet:

  • Forfattere (professorer) utfører vitenskapelig forskning
  • Institusjoner finansierer disse forfatterne
  • Tidsskrifter Publiser kvalitetsfunnene
  • Mediasider og blogger rapporterer om disse funnene
  • Leserne lærer om vitenskapelige forskningsresultater gjennom mediasider

Etter litt graving blir det åpenbart at nesten alle spillere er incentiverte til å handle i egeninteresse:

  • Forfattere - verdifulle forskningsresultater = karriereutvikling
  • Institusjoner - mer verdifulle forfattere ansatt = bedre omdømme / $
  • Tidsskrifter - mer verdifull forskning publisert = bedre omdømme / $
  • Media- mer interessant forskning publisert = mer annonsepenger generert

Disse funnene forsterker behovet for en slik utvidelse ytterligere.

Neste opp kartla jeg den nåværende navigasjonen av Google Scholar:

Etterpå planla jeg funksjonaliteten jeg så for meg og navigerte mellom sider:

Fremtidige trinn

Ulempen med nettleserutvidelser er at de ikke fungerer på mobil. En mulig løsning vil være en dedikert mobilnettleser eller å bake funksjonaliteten i Google Chrome (android / iOS). I tillegg er det noen interessante fremtidige muligheter:

  • AI-maskinlæring kan etter hvert pares gjennom semantikk, og skape meningsfylte forhold mellom Google Scholars 'database som kan føre til ytterligere innsikt. AI kan til slutt være den ultimate peer reviewer og BS detektor, da det gir mening for all akademisk litteratur ved å oppdage tidligere upåaktede mønstre.
  • Ved å trykke på publikumssidene som PubPeer.com kan akademikere utføre fagfellevurderinger etter publisering, noe som har fremhevet mangler i flere høyprofilerte artikler og til og med før tilbaketrekninger. Det ville være interessant å utforske kommentarer eller til og med stemme fra bekreftede forskere.
  • Desentralisering - Jeg antar at ikke noe prosjekt er ferdig før blockchain er involvert ... alle vitser til side, jeg kunne se et vitenskapelig tidsskrift DApp på Ethereum som lagrer og notariserer studier på blockchain. Bekreftet forsker som sender inn fagfellevurderte studier vil bli belønnet kryptokoder for kvalitetsbidrag - det kan til og med være en smart crowdfunding-modell for å finansiere fremtidige studier. På det tidspunktet ville Google Scholar ikke lenger tilhøre Google, da det ville være uavhengig tjeneste, immun mot sentral kontroll eller sensur.

Min langsiktige visjon er en sannhetsmekanisme som strekker seg utover vitenskap, til nyhetsartikler, blogger, tweets, nettsteder og til og med ebøker, ved å inkorporere tjenester som FactCheck, Snopes, FiB, BS Detector og MediaBias.

Den russiske innflytelsen på de amerikanske presidentvalgene i 2016 er et vitnesbyrd om kraften til våpnet informasjon. I en tid der sosiale medier har blitt en primær nyhetskilde for mange, har pålitelighet og troverdighet forsvunnet, og i mange tilfeller forsvunnet direkte. Falske opplysninger har blitt en stor styrke som former vår verden da den er billigere og enklere enn noen gang å produsere og forplante. Dette konseptet er bare en tilnærming til et mye bredere og sammensatt problem, ettersom vi har et desperat behov for verktøy for å beskytte oss mot feilinformasjon

PS: Flere dager etter avsluttet denne artikkelen kunngjorde Chan-Zuckerberg-initiativet Computable Knowledge Project, som tar sikte på å koble sammen og forstå vitenskapelige artikler ved hjelp av AI.