Feeds:
Beiträge
Kommentare

Open Access – Teil 1

oaBastian sagt:

Ich wollte euch hier demnächst mal ein paar Dinge darüber schreiben was genau Open Access (OA) ist, was für Vorteile aber auch Nachteile das System hat und so weiter. Doch leider bin ich mir sehr unsicher welchen Wissensstand ich bei euch Lesern voraussetzen kann. Von daher wollte ich in diesem Beitrag mal darauf eingehen wie Wissenschaftler traditionell ihre Ergebnisse veröffentlichen und wie das Verlagswesen im alten Modus funktioniert. Für wen das sein täglich Handwerk ist der darf diesen Eintrag gerne überlesen und sich dann mehr auf den nächsten OA-Beitrag freuen.
bild-3
Dazu hab ich mal ganz trendy eine kleine Flowchart zusammengebastelt in der man stark vereinfacht sieht wie es vom Vergeben der Forschungsgelder bis zur Veröffentlichung der Ergebnisse kommt.

Schauen wir uns das Ganze mal Schritt für Schritt an. Erstmal dürfen die Wissenschaftler sich um Forschungsgelder bewerben. Wenn die Geldgeber, in Deutschland z.B. die Deutsche Forschungsgemeinschaft, nach Überprüfung der Anträge Geld bewilligen kann es dann erstmal an die eigentliche Forschung gehen. Und irgendwann will man dann natürlich auch seine Ergebnisse präsentieren. Dazu schreibt man dann so ein hübsches Paper wie wir sie hier regelmässig vorstellen und sucht sich eine Zeitschrift in der man dann veröffentlichen will.

Und hier fängt der Ärger dann auch an (manche würden allerdings sagen dass das schreiben schon zum Ärger gehört). Denn die Zeitschrift in der man sich präsentieren will soll weise gewählt sein. Generell sind dabei alle geil darauf ein Journal zu erwischen das einen möglichst großen Journal Impact Factor (JIF) hat, dieser Wert soll angeben wie angesehen die Zeitschrift ist. Gleichzeitig gilt auch: Je höher der JIF desto besser/wichtiger muss ein Ergebnis sein um in so einer Zeitschrift angenommen wird.

Hat man sich dann für sein Journal entschieden sendet man denen sein Manuskript zu und die Redakteure schauen dann erstmal ob der Beitrag überhaupt zur Zeitschrift passt. Entscheiden diese sich dagegen darf man sich ein neues Journal suchen.

Sind die Redakteure jedoch der Ansicht das die Veröffentlichung in ihrer Zeitschrift veröffentlicht werden soll so geht es ins Peer-Review-Verfahren: Die Herausgeber suchen sie sich nun Experten des betroffenen Fachbereiches aus und geben diesen das Manuskript um den fachlichen Inhalt des Papers zu überprüfen. Dies dient unter anderem dazu gefakte Daten etc. zu entlarven, was natürlich nicht immer klappt.

Hat es das Manuskript so weit geschafft dann kann es danach veröffentlicht werden. Von Journal zu Journal unterschiedlich: Ob die Autoren für das Ganze selbst etwas zahlen müssen. Gleiches gilt dann für den Umfang in dem die Rechte an der Veröffentlichung in die Hände des Verlages gehen oder eben bei den Autoren bleiben. Schlechtenstenfalls bezahlt man also dafür all seine Rechte abzugeben, aber was tut man nicht für Reputation?

Und irgendwann geht dann das Journal in Druck in dem das Paper abgedruckt ist, wird an alle Abonnenten versendet und wird gegebenenfalls online veröffentlicht so das Abonnenten Zugriff darauf haben. Darüber hinaus bieten viele Zeitschriften es an einzelne Paper online zu kaufen für den Fall das man kein Abo hat. Zu den größten Kunden für die Abos gehören dabei wohl die Universitäten die Lizenzpakete kaufen um ihre Bibliotheken mit Zugriff auf die Archive der Verlage auszustatten.

Was übrigens viele Studenten auch nicht wissen: Zumindest bei der Uni Münster kann man auch von zuhause den gesamten Online-Katalog der Uni-Bibliothek nutzen wenn man sich einen kleinen, einfachen VPN-Zugang einrichtet. So hat man in Sachen Journals den gleichen Zugriff wie aus den Computerräumen der Uni. Ich bin mir recht sicher dass sowas mittlerweile Standard an jeder Uni sein dürfte. Also schaut mal auf den Seiten eurer Uni nach um euch vielleicht den einen oder anderen Weg zu ersparen.

So weit dann dazu wie traditionell veröffentlicht wird in den Wissenschaften. Nächstes Mal dann über den großen Unterschied zu Open Access.

Advertisements

ResearchbloggingPhilipp sagt:

Wie letztens schon in den Kommentaren gewünscht gehts heute um Alternative Splicing (AS), insbesondere bei Pflanzen.

AS ist mit eine Erklärung für die Proteinvielfalt in allen „höheren“ Organismen. Momentan wird geschätzt das der Mensch über ca. 30.000 Gene, aber 90.000 Proteine verfügt – wie kann das sein?

Die Antwort ist natürlich (wer hätte es bei dem Einstieg auch anders erwartet) Alternative Splicing (Kleine Anmerkung: Trotz Bemühens, für die meisten Fachwörter zwecks Verständnis das deutsche Pendant zu finden – „Alternatives Spleißen“ hört sich einfach zu doof an).
Was passiert also bei AS?

Normalerweise sind Gene bei Eukaryoten so organisiert: Kodierende Regionen werden von unkodierenden flankiert.
In den unkodierenden Regionen verstecken sich u.a. Bindungsstellen für diverse regulierende Genelemente, aber darauf soll hier heute nicht eingegangen werden. Für uns viel wichtiger ist der Aufbau der kodierenden Region; diese unterteilt sich nämlich in Exons und Introns.
Wird im Zellkern die RNA mithilfe der DNA als Kopiervorlage erzeugt (man erinnere sich an die Schule), so bleiben die Introns erstmal drin. Man spricht dann von prä-mRNA. Als nächstes kommt das Spliceosom, ein Batzen aus ca. 300 Proteinen und 5 RNA-Proteinen, welcher sich dieser prä-mRNA annimmt, die Introns heraus spleißt und die Exons miteinander verbindet.

Und hier kommt unser AS ins Spiel, die Introns werden nämlich nicht immer fein säuberlich herausgetrennt, und die Exons bleiben auch nicht immer bis zum Ende dabei. Man unterscheidet momentan 5 Grundtypen von AS;
1. Exon-Skipping (ES): Dabei wird ein Exon übersprungen und kommt nicht mit in die finale mRNA.
2. Alternative Splice Sites: Dabei fängt ein Exon früher an oder hört früher auf.
3. Alternate 5’/3′ Terminal Exons: Die mRNA fängt mit einem anderen Exon an oder hört mit einem anderen auf.
4. Retained Intron: Ein Intron wird in die fertige mRNA mit übernommen.
5. Initiate or Terminate within an Intron: Ein Intron wird nur zum Teil mitgenommen.

Grafik 1 verdeutlicht das ganze nochmal. (Quelle: Haas BJ, Analysis of alternative splicing in plants with bioinformatics tools., Curr Top Microbiol Immunol, Vol 326, p. 17-37)

as-typen2

Diesen Mechanismus kennt man schon seit mindestens 1987 (Breitbart et al. – den Namen hätt ich auch gern, damit kann man spitze Piratenkapitän werden!), und in Menschen wurde er bis dato gut erforscht; so hat man einige Krankheiten auf das Wirken von falschem AS zurückführen können.

Zum Beispiel ist bei Menschen (und den bis dato untersuchten Vertebraten wie Mäusen etc.) Exon-Skipping mit ca. 30% aller AS-Ereignisse am weitesten verbreitet – bei Pflanzen liegt ES bei grade mal 3%.
Man geht davon aus, dass ES zu einer erhöhten Proteindiversität führt – logischerweise kann man so aus einem Bauplan mehrere verschiedene, funktionierende Maschinen bauen.

Interessanterweise ist Intron-Retention (IR) bei Pflanzen am weitesten verbreitet (z.B. bei Wang et al. 2008, Ner-Gaon 2004), und zwar mit ca. 40% aller AS-Ereignisse in den bis jetzt untersuchten Pflanzen (die Prozentzahlen schwanken je nach Veröffentlichung: die Untersuchungen sind abhängig von der verfügbaren Genomsequenz, Anzahl der verfügbaren mRNAs, verwendetem Algorithmus usw.)
Der Unterschied zum Exon-Skipping liegt darin, dass IR das Leseraster verschiebt – kleine Wiederholung:
Die Nukleotide in der RNA sind in Dreiergruppen, sogenannten Tripletts oder Codons, organisiert. Jedes dieser Codons kodiert für eine Aminosäure im fertigen Protein. Wird der Leseraster verschoben, so kommt es zu einer Auflösung des alten Musters, und womöglich kommen in das Protein völlig andere Animnosäuren.
Ein Beispiel: AAU UUA ACU codiert für Asparagin, Leucin und Threonin. Wird der Leserahmen einmal nach rechts verschoben, so erhalten wir A AUU UAA CU, was für Asparagin und ein Stop-Codon codiert. Passiert das in der mRNA, so wird die Translation an dieser Stelle abgebrochen, komme was da noch wolle, und es wird ein verkürztes Protein hergestellt. Meist wird dies von der Zellmaschinerie frühzeitig erkannt, und es kommt zu Non-sense mediated decay – die mRNA wird abgebaut.

Das scheint auch der dahinterliegende Grund in Pflanzen zu sein; durch diese Einrichtung haben Pflanzen eine weitere Stufe in der Kontrolle der Genexpression, die bei uns Tieren dann fehlt, und Pflanzen einen Vorteil in der komplizierten Abstimmung der Proteinmaschinerie gibt. Was allerdings nicht so schlimm ist – wir Tiere können schließlich weglaufen.

Wer sich mit dem Informatikteil dahinter befassen will, dem empfehl ich folgende Veröffentlichungen:
1. Sammeth et al. : A general definition and nomenclature for alternative splicing events. PLoS Comput Biol, Vol 4, Issue 6, 2008.
Es wird eine Nomenklatur vorgestellt, zusammen mit dem Programm „AStalavista“ welches Exongrenzen nimmt, um daran AS zu erkennen. Dann braucht man natürlich noch ein Programm welches die Exongrenzen anhand von ESTs oder mRNAs und einer Genomsequenz ausspuckt! Da gibts z.B. GeneSeqer, GMAP, Splign, Spa usw….
Diese Programme funktionieren alle anders; man muss von Fall zu Fall unterscheiden, welche man nimmt.
Eine Review findet man hier:
2. Barbazuk et al. Genome-wide analyses of alternative splicing in plants: opportunities and challenges., Genome Res, Vol 18, Issue 9, p. 1381-1392, 2008.

Sammeth, M., Foissac, S., & Guigó, R. (2008). A General Definition and Nomenclature for Alternative Splicing Events PLoS Computational Biology, 4 (8) DOI: 10.1371/journal.pcbi.1000147
Barbazuk, W., Fu, Y., & McGinnis, K. (2008). Genome-wide analyses of alternative splicing in plants: Opportunities and challenges Genome Research, 18 (9), 1381-1392 DOI: 10.1101/gr.053678.106

ResearchbloggingBastian sagt:

Die bösen, bösen Ego-Shooter sind ja wieder ein großes Thema. Angeblich machen sie ja aus Jugendlichen gemeingefährliche Amokläufer.
Das die sogenannten “Killerspiele” allerdings auch positive Auswirkungen haben können zeigt eine Studie von Renjie Li und Kollegen die in Nature Neurosciences veröffentlicht wurde: Sie haben herausgefunden dass das Spielen von Ego-Shootern dabei hilft das Kontrastsehen zu stärken.

Doch erstmal zu den Basics: Kontrastsehen ist darüber definiert welche Abstufungen wir zwischen Graustufen noch als getrennte Töne wahrnehmen können. Wichtig ist das z.B. wenn man im Dunkeln im Auto fährt. Bei schlechtem Kontrastvermögen sieht man nur einen gleichfarbigen Graumatsch und könnte so ganz bequem mal den dunkel angezogenen Fussgänger plattfahren. Nicht unbedingt das was man möchte.

Um zu sehen ob und wie stark sich das Kontrastsehen durch Videospielen verbessert wird wurde das Kontrastsehen vor dem Start der Versuche getestet. Danach wurden die Probanden in 2 Gruppen eingeteilt: Die Spieler von 3D-Shootern, hier Call of Duty 2 und Unreal Tournament 2004 oder auch “expert action video game players” und in die “non-action game players” die im Gegenzug Die Sims 2 spielen durften. Innerhalb von 9 Wochen mussten alle Probanden insgesamt 50 Stunden mit ihren Spielen verbringen.

Nach Ablauf der 9 Wochen wurde das Kontrastsehen dann wieder getestet. Mit spannendem Ergebnis: Bei den Probanden die mit Actionspielen trainiert hatten nahm die Sensitivität für Kontrastsehen zu, es konnten also geringere Kontrast erkannt werden. Auf der anderen Seite nahm die Zeit ab die sie brauchten um Kontraste erkennen zu können.

Bei der Sims-Kontrollgruppe nahm das Vermögen Kontraste zu erkennen nur wenig ab während die Zeit die sie brauchten um Kontraste zu erkennen sogar zunahm. Also Politiker und Politeusen: Vielleicht sollte man sich so Generalverbote nochmal überlegen…

Li, R., Polat, U., Makous, W., & Bavelier, D. (2009). Enhancing the contrast sensitivity function through action video game training Nature Neuroscience DOI: 10.1038/nn.2296

Von Pilzen und Ameisen

ResearchbloggingPhilipp sagt:

Hallo! Ich hab hier jetzt schon länger nix geschrieben, da ich grad am Anfang meiner Bachelorarbeit steh und deshalb relativ wenig Zeit hab (hust hust). Da mein Thema sich größtenteils um „computational predictions“ und alternativem Spleißen in Pflanzen dreht ist es m.E. zu trocken für dieses Blog;
wer aber trotzdem was drüber lesen will (man kann ja noch hoffen) darf sich gerne in den Kommentaren melden!

Weil ich aber hier auch mal wieder schreiben möchte (Basti soll ja nich alle Lorbeeren ernten) möchte ich heute folgende, sehr interessante Publikation über die Beziehungen zwischen Blattschneiderameisen und Pilzen vorstellen: Candicidin-producing Streptomyces support leaf-cutting ants to protect their fungus garden against the pathogenic fungus Escovopsis.
Wie man schon vor Erscheinen dieses Papers wusste, halten sich manche Blattschneiderameisen-arten wie z.B. Acromyrmex octospinosus Pilze in ihrem unterirdischen Bau, um sich von ihnen zu ernähren. Damit die Pilze nicht verhungern, sammeln die Ameisen Blätter, zerkauen diese und füttern damit die Pilzkolonien. Damit es den Pilzen immer gut geht wird um die Pilzkolonien aufgeräumt, und die Ameisen sekretieren bestimmte Chemikalien auf die Pilze, damit diese sich keine Krankheit einfangen.

Früher dachte man, dass diese Kolonien nur aus einer einzigen Pilzart namens Leucoagaricus bestehen würden, inzwischen ist jedoch klar, dass mehrere Pilzarten sich einen Lebensraum teilen, manche davon gut für die Ameisen, manche eher schlecht. Heute geht es um Escovopsis sp., ein Pilz, der sich von Leucoagaricus ernährt. Das kann den gesamten Ameisenbau gefährden, da so eine wichtige Lebensgrundlage der Ameisen verloren geht.

Glücklicherweise hilft den Ameisen dabei Streptomyces sp., noch ein Pilz, der aber gegen Escovopsis sp. wirkt – wie genau, wusste man früher noch nicht.
(Hier gibt es ein Paper, welches die Beziehungen zwischen den Ameisen und Pilzen klärt)

Was jetzt neu ist (und mich zu diesem Thema gebracht hat): Die Forschergruppe um Frau Haeder hat die chemische Grundlage der Pilzabwehr identifiziert, ein Stoff namens Candicidin, welcher von Streptomyces, aber auch von einigen weiter entfernten Pilzen produziert wird, um räuberische Pilze aufzuhalten. So wird das Gleichgewicht im Garten beibehalten.

Ein tolles Beispiel für die verschlungenen Wege der Evolution, welche solch komplizierten Wechselwirkungen zwischen (mindestens – wer weiß, was da noch kommt!) drei Teilnehmern erlaubt.

Haeder, S., Wirth, R., Herz, H., & Spiteller, D. (2009). Candicidin-producing Streptomyces support leaf-cutting ants to protect their fungus garden against the pathogenic fungus Escovopsis Proceedings of the National Academy of Sciences, 106 (12), 4742-4746 DOI: 10.1073/pnas.0812082106
Currie, C., Scott, J., Summerbell, R., & Malloch, D. (1999). Fungus-growing ants use antibiotic-producing bacteria to control garden parasites Nature, 398 (6729), 701-704 DOI: 10.1038/19519

St. Paddy’s Day naht!

Bastian sagt:

Dieses Blog ist noch nie durch eine besondere Heiligenverehrung aufgefallen, aber bald, am 17. März um genau zu sein wird überall auf der Welt – nicht nur in Irland (auch wenn es da der Nationalfeiertag ist) – der St. Patricks Day gefeiert.

Das ist der Tag der den meisten Deutschen aus zwei Gründen bekannt ist: Zum einen sieht man in gefühlt jedem Dritten Hollywood-Film eine St. Paddy‘s-Day Parade in der sich irgendwelche Bösewichte verstecken und zum anderen ist das der Tag an dem so ziemlich alles grün gefärbt wird, so z.B. Schnaps, Hüte oder auch mal eben der Chicago River.

Das ist ja alles schön und gut und auch hierzulande wird der Stout-Konsum kurzfristig wieder ein hoch erreichen. Aber was genau hat der olle Patrick überhaupt zustande gebracht das sich einige Millionen Iren weltweit sturztrunken an diesem Tag in den Armen liegen? Und was hat mit Wissenschaft zu tun?

Der heilige Patrick war ein christlicher Missionar im 4./5. Jahrhundert der dort ganz fleissig alle Menschen überredet hat doch jetzt mal an einen anderen Quatsch zu glauben. Und was kann man besseres machen als dazu ein kleines Wunder aufzuführen: Denn der Legende nach hat Patrick alle Schlangen aus Irland vertrieben. Und tatsächlich: In Irland gibt es keine wilden Schlangen die nicht irgendwann mal von Haustierbesitzern ausgesetzt wurden.

Doch das Ganze bleibt nicht mehr als eine schöne Legende, denn die Gründe sind (wenig überraschend) ganz andere: Zum einen berichtet die Wikipedia davon das es sich bei den Schlangen schlicht um ein Symbol für das damals verbreitete Druidentum handelt was Patrick durchaus aus Irland vertrieben hat – indem er die Menschen zum Christentum konvertieren lies. Aber das beantwortet noch nicht die Frage wieso es dann wirklich keine echten Schlangen auf Irland gibt.

Die Antwort dafür liefert uns die Erdgeschichte und genauer gesagt die letzte Eiszeit: Während der maximalen Ausdehnung des Eises waren die britischen Inseln allgemein von einer Eisschicht überzogen die es den wechselwarmen Reptilien, die Schlangen nunmal sind, unmöglich machten dort zu überleben.

Vor gut 18000 Jahren begann das Eis sich zurückzuziehen und es entstand eine Landbrücke zwischen England und dem was heute das europäische Festland ist. Darüber konnten die Schlangen England und Schottland bevölkern. Allerdings hatte das schmelzen der Eisschicht auch noch andere Konsequenzen: Der Meeresspiegel stieg an. Und so gab es keine Landbrücke mehr zwischen Irland und dem Rest der britischen Inseln. Und da Schlangen nicht gerade zu den schnellsten Tieren gehören haben sie das Zeitfenster von “Warm genug zum rübermachen nach Irland und Landbrücke vorhanden” verpasst. Wer dazu noch mehr wissen will sollte auf dieser (englischsprachigen) Webseite mal nachschauen.

Da hatte der Patrick also wenig zu tun wenn er wirklich versucht haben sollte die echten Schlangen aus Irland zu vertreiben. Aber das soll euch natürlich nicht daran hindern zu feiern und für einen Tag Ire zu sein (immer noch besser als Karneval/Fasching).

Also lasst euch euer Stout und den Whiskey schmecken.

Google is evil?

ResearchbloggingBastian sagt:

Das Google so ziemlich alle Nutzerdaten und Suchanfragen speichert dürfte für die meisten Leser hier ja nichts neues sein. Was für viele Menschen ein bedrohliches Big Brother-Szenario ist ignorieren andere einfach. Doch das Google damit nicht nur vermeintlich passende Werbung an den Mann bringen kann beweisen sie in einem Paper das letzte Woche in Nature erschienen ist.

Die Rede ist von den Google Flu Trends die das Ausbrechen von Grippe-Wellen beobachten. Die Grippe wird von den Influenzaviren ausgelöst und führt auch in Deutschland noch jährlich zu einigen Todesfällen.

Zur Beobachtung von Ausbrüchen haben sich die Jungs und Mädels zusammengesetzt und sich mal die Daten des US Centers for Disease Control and Prevention (CDC) und der European Influenza Surveillance Scheme (EISS) besorgt. Diese Organisation bekommen ihre Daten zum Teil auch über die Rückmeldungen von Ärzten die Grippe-Fälle weitermelden müssen.

Dann werden die Fälle gesammelt und wöchentlich veröffentlicht. Durch dieses ganze Prozedere entsteht eine Zeitverzögerung von 1-2 Wochen. Und genau hier setzt Google an, denn zu Zeiten von Grippewellen könnte man ja damit rechnen das auch im Web verstärkt nach Schlagworten gesucht wird die mit der Krankheit zusammenhängen. Um entsprechende Schlagworte zu finden hat Google die Suchdaten der letzten 5 Jahre ausgewertet zusammen mit den an die CDC gemeldeten Arztbesuche im Zusammenhang mit Grippe.

Durch diesen Vergleich wurden dann ein Set aus Suchanfragen erstellt das den höchsten Zusammenhang mit den Grippe-Daten der CDC hatte. Durch die Anzahl von Suchanfragen aus diesem Set kann dann wieder zurückgerechnet werden wieviel Prozent der Arztbesuche im Zusammenhang mit Grippe-Erkrankungen erfolgten.

Und so hat man ein Modell was prinzipiell aus der Zusammensetzung der Suchanfragen den Grippe-Status der Bevölkerung ausweisen kann. Und das dies erstaunlich gut funktioniert zeigen die Daten die Google Anfang 2008 errechnet hat: Die Werte stimmen erstaunlich gut mit den Daten der CDC überein. In der Grafik sieht man in Schwarz die von Google vorhergesagten Daten und die von der CDC erstellten Daten.

Google FluTrends

Das wäre so weit ja schön und gut. Doch nicht wirklich nützlich. Aber wie man ebenfalls aus dem Graphen sieht hat Google einen entscheidenden Vorteil:
Es ist fast 2 Wochen schneller als die CDC weil die Daten der Suchanfragen viel unmittelbarer ausgewertet werden können als wenn der Arzt erst seine Daten an die CDC schicken muss die diese dann wöchentlich veröffentlicht.

Bislang lassen sich die Daten leider nur für die USA abrufen, bleibt abzuwarten ob Google den Dienst irgendwann ausweiten wird.

Jeremy Ginsberg, Matthew H. Mohebbi, Rajan S. Patel, Lynnette Brammer, Mark S. Smolinski, Larry Brilliant (2008). Detecting influenza epidemics using search engine query data Nature, 457 (7232), 1012-1014 DOI: 10.1038/nature07634

Neues zu Mendeley

Bastian sagt:

Mendeley habe ich hier ja schön öfter mal wohlwollend erwählt weil ich die Idee des last.fm für Wissenschaftler super finde. Denn allgemein denke ich das noch viel zu wenig Wissenschaftler das Netz wirklich effizient nutzen. Sei es um miteinander zu diskutieren, kollaborieren oder auch vernünftig abseits der verbreiteten walled garden zu publizieren.

Das Prinzip von Mendeley wird für alle Neueinsteiger hier nochmal erklärt. Doch es gibt diese Woche zwei Neuerungen von Mendeley die eine Erwähnung wert sind:

1. Mendeley hat Investoren gefunden und kann nun mit einem Kapital von 2 Mio. $ sicherlich etwas beruhigter an die Weiterentwicklung ihres Dienstes gehen. So werden vermutlich auch viele der Features von denen Entwickler schon träumen ihren Weg in den Dienst finden.

2. Es gibt nun eine Kooperation mit dem Dienst CiteULike den vielleicht viele der Leser schon kennen. CiteULike ist ein Online-Dienst der ebenfalls zur Verwaltung der Paper dient. Dank der Kooperation soll man seine Paper zwischen CiteULike und Mendeley synchronisieren können was ein guter Schritt ist um im aufkeimenden Gerangel der Dienste den Überblick über seine Daten behalten zu können.

Wer sich Mendeley noch nicht angeschaut hatte sollte das auf jedenfall tun, die Jungs liefern einen sehr ordentlichen Dienst mit freundlichem Support ab.