Archiv der Kategorie: Verlage

The nonprofit Impactstory just released Unpaywall, an open-source Chrome/Firefox extension that links you to Open Access as you browse research articles. Hit a paywall? No problem: click the green tab, read it free.

Der grüne Tab erscheint auf der Artikelseite dann rechts am Bildschirm. Bleibt er grau, gibt es keine Open Access Version, ist er grün, dann gibt es eine. Neben reinen Open Access Artikeln werden automatisch auch Repositorien nach einer Zweitveröffentlichung durchsucht.

Wer einen anderen Browser als Chrome und Firefox verwendet, kann für die Prüfung auf Open Access Versionen auch den OA Button verwenden.

 

Avoid Paywalls, Request Data.

Hier einfach die URL des Artikels, die DOI, die PMID, die PMC ID, Titel oder Zitierung in den Suchschlitz eingeben und los gehts.

Natürlich gibt es keine Garantie, dass die beiden Tools immer eine Open Access Version des gewünschten Aufsatzes finden, sie sind dennoch eine große Hilfe.

Hit a paywall? No problem. Use this tools. Or ask your librarian! 🙂

Psychology: A high-prestige, community-based journal

Die Frage, was man als einzelne/r WissenschaftlerIn für die Förderung von Open Science tun kann, bewegt viele immer wieder. Neben dem ständigen Austausch mit den KollegInnen und der Verwendung von offenen Standards und Werkzeugen in der wissenschaftlichen Arbeit, z.B. Open Source Software und Tools wie GitHub, ist die Veröffentlichung wissenschaftlicher Ergebnisse als Open-Access-Variante eine Möglichkeit. Ein weiterer Schritt ist die Umwandlung von subskriptionsbasierten Journalen in Open-Access-Journale. Ein aktuelles, erfolgreiches Beipiel ist das Journal Glossa, ehemals Lingua. Bei diesem ehemaligen Elsevier-Journal ist der gesamte Herausgeberkreis zurückgetreten, nachdem der Verlag sich weigerte auf Open Access umzustellen und ist zur Open Library of Humanities gewechselt, um dort eine linguistische Open-Access-Zeitschrift zu hosten. Entgegen aller Unken-Rufe hat das der Zeitschrift nicht geschadet: „Not everything was bad in 2016: Glossa received 319 submissions, about the same number of articles as were submitted to Lingua in 2013, 2014, and 2015.“ [Quelle]

Das Beispiel Lingua/Glossa ist deshalb von so großer Bedeutung, weil es zeigt, dass die Marktmacht der Verlage durchaus angreifbar ist. In den meisten Disziplinen ist die Reputation der Verlage nebensächlich, die Reputation der Herausgeberkreise dafür umso relevanter. Letztere hätten deshalb auch am ehesten die Chance, Druck auf Wissenschaftsverlage auszuüben, auf transparent finanzierte Open-Access-Modelle umzustellen.

Eine Alternative zur Open-Access-Transformation ist die Gründung einer neuen Zeitschrift. Einer community-basierten z.b., ähnlich denen die früher von den Fachgesellschaften herausgegeben wurden. Ein ganz aktuelles Beispiel hierfür ist die Gründungsabsicht des Journals Psychology: A high-prestige, community-based journal. Dazu wurde heute ein Concept Document veröffentlicht, in dem das Konzept des Open-Access-Journals vorgestellt und für Mitarbeit geworben wird. Besonders spannend ist dabei der folgende Ansatz:

1. Publication is separated from evaluation. Authors “publish” their articles on a preprint service, like PsyArXiv, and choose whether to submit the article for peer review at Psychology.

3. Reviews are open, anonymity is optional. Editors select reviewers to review, and articles are openly available for community review and comment. […]

6. Psychology is open to a variety of subdisciplines and a variety of article formats. Sections of Psychology are established based on availability of editorial leadership for that section (e.g., Psychology: Clinical, Psychology: Developmental, Psychology: Reviews, Psychology: Adversarial Collaborations). At minimum, Psychology will be open to empirical studies in standard (written after results are known) and Registered Reports formats. Individuals or groups can propose new sections to Psychology’s Editorial Board.

Ziel ist es

to establish a single prototype of a highly credible, high prestige psychology journal that meets the present culture demands for outlets that signal high achievement. Simultaneously, this prototype could facilitate a marketplace of open scholarly communication efforts by the psychology community (and beyond) using open-source tools.

Es gibt also verschiedene Möglichkeiten, wie man als einzelne/r WissenschaftlerIn im Open Science Bereich aktiv werden kann. Besser/leichter/schneller/netter geht es natürlich, wenn man Gleichgesinnte in der Community findet, sich mit diesen vernetzt und gemeinsam etwas auf die Beine stellt.

Workshop-Fazit: Offene und datengetriebene Innovationen für Bildungsmedienanbieter

In den vergangenen Jahren wurden zunehmend Veränderungen an Schulen und Hochschulen durch digitale Bildungsmaterialien thematisiert. Die Potenziale von Offenheit und großen Datenmengen für Innovationen der Bildungsmedienanbieter wurden dabei bisher nur beschränkt wahrgenommen. Eben diese Potenziale wurden im vom IPN – Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik, dem DIPF – Deutsches Institut für Internationale Pädagogische Forschung und dem Know Center Graz organisierten Workshop auf der Didacta 2016 in Köln thematisiert. Der einführende Vortrag von Frau Ass.-Prof. Dr. Elisabeth Lex (Know Center) trug daher den Titel „Data driven Business: Der Nutzen von (offenen) Daten für den Bildungsbereich“ (Folien werden nachgereicht) und widmete sich u.a. folgenden Fragestellungen:

  • Welchen Nutzen haben Daten für Content Provider haben und wie können diese von der Idee eines Data driven Business profitieren?
  • Welche datenzentrischen Services benötigen Lernende und Lehrende?
  • Welche Daten entstehen beim Lernen und wie können diese wieder in den Prozess einfliessen?

Frau Lex führte zuerst in den Bereich Big Data ein, stellte den Flea Market for Open Data aus dem Projekt CODE vor und schlug dann den Bogen über die OER Commons hin zur Wertschöpfungskette im Bereich Data driven Business und welchen Benefit diese Entwicklung für Lehrende, Lernende und Bildungsmedienanbeiter haben kann.

DSCN4071

Der zweite Vortrag von Ingo Blees (DIPF/Deutscher Bildungsserver) stellte die Machbarkeitsstudie des Deutschen Bildungsservers zu OER-Infrastrukturen vor und trug daher passend den Titel: „Open Educational Resources – Infrastrukturen: Potentiale, Herausforderungen, Perspektiven“ (Folien). Der Vortrag beschäftigte sich vor allem mit folgenden Punkten:

  • Begriff und Potenziale von OER
  • Die Machbarkeitsstudie zu OER-Infrastrukturen: Auftrag, Methodisches Vorgehen, Empfehlungen
  • Perspektive Metadaten-Austausch-Service MDAS

DSCN4080

Im Anschluss an die beiden Vorträge gab es durch ein Worldcafé die Möglichkeit, die aufgestellten Thesen direkt mit den Vortragenden zu diskutieren. An drei Tischen (einer zum Vortrag von und mit Frau Lex, einer zum Vortrag von und mit Herrn Blees und ein freier Diskussions-Tisch mit mir) wurden teilweise sehr hitzig einzelne Aspekte diskutiert und auf Probleme, Grenzen aber auch Möglichkeiten hingewiesen. Die Ergebnisse finden sich in der Bildergalerie und ich möchte an dieser Stelle nur auf einzelne Themen eingehen, die an allen drei Tischen angesprochen wurden.

DSCN4084
1. Qualität

Die Frage nach der Qualität und der Qualitätsgarantie der OER-Materialien ist eine zentrale und wurde anscheinend auch auf dem OERCamp in Berlin diskutiert (siehe Bericht). Dank des Internets besteht die Möglichkeit auch mehrere Qualitätsebenen/-kriterien zu verwenden und diese dem Nutzer anzubieten, der dann je nach Anwendungszusammenhang auswählen kann: Redaktionelle Prüfung, Community-Bewertung (bspw. durch Sterne) oder auch Nutzungsdaten (Häufigkeit des Aufrufs/Downloads etc.). Damit kann die Qualitätsdiskussion zu OER etwas strukturiert werden bzw. die Möglichkeiten der Mehrschichtigkeit der Digitalität ausgeschöpft werden. An meinem Tisch kam die Idee einer Zertifizierungsstelle für OER auf und eine Art Qualitätssigel für „verwendbare“ Materialien. Die TeilnehmerInnen des OERCamp empfanden anscheinend Bibliotheken als dafür geeignet. Die DiskussionspartnerInnen bei Frau Lex überlegten, ob Qualität nicht über die Herkunft der Materialien oder eine Policy gewährleistet werden kann. An dieser Stelle muss ich Frau Fahrenkrog zustimmen:

Mich bringt das ins Nachdenken, weil der Sinn von Open in all seinen Ausprägungen doch auch ist, dass kollaborativ und partizipativ über Anmerkungen, Ergänzungen, Reviews, Überarbeitungen u.ä der Materialien eine Qualitätssicherung durch die jeweiligen Peers erfolgt.

Aber diese Form der Qualitätssicherung hat sich noch nicht durchgesetzt und wird auch v.a. von FachdidakterInnen (z.B. am IPN) als kritisch gesehen. In dem Rahmen der Qualitätssicherung wurde auch über rechtliche Sicherheit bei der Verwendung von OER diskutiert. Anscheinend sind trotz der CC-Lizenzen (und anderer Lizenzen für offene/freie Materialien) die Bedenken, OER einfach zu verwenden sehr groß. Das betrifft vor allem Fragen nach den Urheberrechten/ dem Copyright und den Möglichkeiten des Remixing.

2. Standards

In dem Bereich der Standards gehören neben den Metadaten und wie diese gematcht oder ausgetauscht werden können, auch entsprechende Infrastrukturen, die den Austausch der OER-Materielien und der dazugehörigen Metadaten problemlos ermöglichen. Hier scheint es noch Ausbaupotential zu geben. Viele Angebote wie das ZUM Wiki oder das Projekt Mapping OER sind noch nicht hinreichend bekannt. Von kleinen Start-Ups wie Tutory ganz zu schweigen. Hier wären eine stärkere Vernetzung und Austausch-/Nachnutzungsmöglichkeiten verschiedener Materialien verschiedener Plattformen wünschenswert. Es gibt auch bereits Lösungen, die dieses Problem angehen: ELIXIER und EduTags. Für die Metadaten (und die Materialien) braucht es passende Repositorien und Austausch- und Verarbeitungstools.

Neben den technischen Standards spielen natürlich auch Standards des Datenschutzes eine große Rolle. Mit individuellen Lösungen bzw. Individualisierung der Plattformen/Materialien tritt man der Diskussion bei, die schon im Bereich des Web 2.0 geführt wird – schlagen dann künftig Algorithmen vor, welche OER am besten zu mir und meinem Unterricht/meinem Lernverhalten passen? Möchten wir das? Wenn es Business-Modelle zu OER gibt, was passiert mit den aggregierten Daten? Wie kann Anonymität gewährleistet werden? Diese und ähnliche Fragen müssen im Kontext von OER unbedingt mitdiskutiert werden.

3. Business vs./und AnwenderInnen

Natürlich wurden im Worldcafé nicht nur die Möglichkeiten von OER für Lehrende und Lernende diskutiert, sondern vor allem auch die Möglichkeiten für Bildungsmedienanbeiter (auch wenn diese leider nur sehr sparsam vertreten waren). Also Verwertungsmöglichkeiten für OER: Monetarisierung, Verschliessen vs. Verschenken, Wie kann man rechtlich sicher mit OER Geld verdienen? Welche Geschäftsmodelle gibt es schon oder sind denkbar? Hier könnte man sich an der freie Software/Open-Source-Software-Bewegung orientieren, die es geschafft hat, tragbare Verwertungsmodelle zu entwicklen. Die AnwenderInnen wiederum wollen natürlich alle Formen der Interaktion, Inklusion oder Kontextualisierung, die mit OER möglich sind, offen und ungehindert austesten können. Dazu gehören z.B. Content Mining, User generated Content, der Einsatz in sogenannten Flipped Classrooms und vieles mehr. In diesem Zusammenhang wurde auch die Frage in die Runde geworfen, wer denn Schulungen im Bereich OER anbietet, für alle Seiten: Lehrende, Lernende, Bildungsmedienanbieter, VerwerterInnen und AnwenderInnen. Auch an dieser Stelle scheint es noch Informationsbedarf zu geben.

Unser Workshop hat viel Sapß gemacht, die TeilnehmerInnen waren durchweg interessiert und motiviert, auch wenn 2 Stunden zu kurz sind, um die genannten OER-Aspekte bis in die Tiefe durchzudiskutieren. Abschließend lässt sich sagen, dass OER zwar sehr wohl als Hype bezeichnet werden kann, aber im Zuge von Digitalisierung, auch was Schul-und Lernmaterialien betrifft (siehe z.B. scook von Cornelsen oder meinUnterricht.de) als eine Möglichkeit für die Gestaltung von Lehr- und Lernprozessen beachtet werden muss. Wichtig ist es, die Bildungsmedienanbeiter wie Schulbuchverlage, Schulfilmhersteller etc. und natürlich die Menschen vor Ort, also LehrerInnen und SchülerInnen in den Prozess mit einzubeziehen. Vielleicht wäre auch bei OER das Konzept der Ambassadors/MultiplikatorInnen, wie es bei Open Access mittlerweile etabliert ist, angebracht.

Ich bedanke mich an dieser Stelle bei meinen beiden fleißigen Mitorganisatoren Christoph Schindler (DIPF) und Peter Kraker (Know Center), ohne die dieser Workshop nie zustande gekommen wäre und bei unserem Kooperationspartner Didacta Verband!

©Text und Bilder von: Alexandra Jobmann
Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Sie schreiben an einem Artikel und wissen noch nicht, wo Sie einreichen wollen?

Probieren Sie doch mal den automatischen Journal/Author Name Estimator JANE aus:

Das Prinzip ist relativ einfach. Man kopiert das Abstract seines Artikels in die Suchmaske, der Such-Algoritmus findet Artikel, die ähnliche Worte in ähnlichen Kombinationen enthalten. Dann werden die Zeitschriften, in den diese Artikel erschienen sind, aufgelistet. Besonders gut funktioniert das ganze für medizinische Zeitschriften. Das liegt zum einen daran, dass die medizinische oder biowissenschaftliche Fachsprache eine gute semantische Auswertung erlaubt, zum anderen liegt es aber auch daran, dass PubMed relativ offen mit den Daten der gelisteten Journals umgeht und das Abgreifen dieser Daten über automatische Dienste erlaubt. Das heißt, die Datenbank PubMed bildet häufig den Datengrundstock, aus dem die Zeitschriften vorgeschlagen werden. Aber nicht nur.

Bei Jane können Sie außerdem unter den erweiterten Optionen auch die Publikationssprache auswählen, und Ihrem Artikel eine Klassifizierung hinzufügen, zum Beispiel, ob es sich um eine Klinische Studie handelt, oder einen klassischen Artikel, ein Review oder eine Meta-Analyse. Mit Jane können Sie übrigens auf die gleiche Weise auch nach Experten in einem bestimmten Fachgebiet suchen.

In der Ergebnis-Liste, die nach der von eigenfactor.org entwickelten Article Influence Score sortiert ist, wird außerdem direkt angegeben, ob es sich um Open Access Zeitschriften handelt oder nicht. Einen vergleichbaren Service bietet der Journal Selector der Firma Edanz Editing. Beide Tools sind kostenfrei nutzbar.

So viel zur Theorie. Am besten, Sie testen einfach mal, und lassen uns wissen, ob Sie die Vorschläge hilfreich fanden.

Quelle: Astrid Vieler: „Semantische Unterstützung bei der Suche nach dem passenden Journal.“ http://www.uni-muenster.de/ZBMed/aktuelles/5094 [zuletzt geprüft am 28.05.2014]

Copernicus Publications: Article-level metrics

Der Open Access Verlag Copernicus hat die Möglichkeiten alternativer Metriken konsequent umgesetzt und so die Impact-Messung auf Artikel-Ebene seiner Publikationen ermöglicht.

Article-level metrics (ALMs) aim to quantify the usage (downloads, views), impact (citations), saves (bookmarks), and discussion (social media) of scholarly work at the article level. ALMs comprise a set of easy-to-understand real-time impact indicators that track how an article is read, discussed, or cited. The usage is collected from individual accesses to the Copernicus library servers (robot traffic is filtered), the impact is counted from CrossRef and Google Scholar citations, the saves are counted from CiteULike and Mendeley, and the discussions are represented by Research Blogging, Facebook, ScienceSeeker, Nature Blogs, Wikipedia, WordPress.com, Reddit, and Google Blogs.

In comparison to the traditional way of measuring impact at the journal level, ALMs offer a more informative way of assessing the overall influence and reach of the articles themselves.

Article-level metrics are available for all articles of journals published by Copernicus Publications. Authors can stay up to date with their published articles and share the information about the impact of their published work with peers, funding institutions, research bodies, and the overall scientific community.

http://publications.copernicus.org/services/article_level_metrics.html

Kostenlose eBooks bis 31.08.2013

Der Verlag De Gruyter hat rückwirkend zum Jahresbeginn 2013 den Oldenbourg Wissenschaftsverlag und den Akademie Verlag übernommen. Damit erweitert De Gruyter seine Produktpalette im Bereich Geschichte, Philosophie und                       Naturwissenschaften. Seit 01. 08. sind außerdem alle eBooks und  eJournals  der zwei Verlage über De Gruyter zugänglich.

Zur Feier der Übernahme gibt es bis 31.08.2013 einen kostenlosen Onlinezugang zu allen lieferbaren Publikationen des Oldenbourg Wissernschaftsverlags und des Akademie Verlags.

Weiter Informationen finden Sie hier.