SHE-Blogpicks

Little Brother optimiert die Arbeitsleistung

Posted by in Allgemein

Diese Seite teilen:

Arbeitsleistungen und andere Aktivitäten von Menschen mithilfe von Sensoren ständig protokollieren und bewerten: Den Traum von Effizienzoptimierern, gleichzeitig Albtraum von Privacy-Verfechtern und Arbeitnehmervertretern könnte ein Forschungsprojekt am Dartmouth College in Hanover/New Hamsphire der Verwirklichung näher bringen. Wie Eurekalert meldet, überwacht dabei ein Smartphone körperliche Aktivitäten, Ort, Telefonnutzung und Umgebungslicht, während ein Fitness-Tracker (Armband o. ä.) Herzfunktion, Schlag, Stress und Körperindikatoren wie Gewicht und Kalorienverbrauch misst. Gleichzeitig liefern Bluetooth-Sensoren (Beacons) – zuhause und am Arbeitsplatz – Informationen, wann eine Person gearbeitet beziehungsweise Pause gemacht hat. Ausgewertet werden die so erhobenen Daten mit Machine-Learning-Algorithmen. Forschungsleiter Professor Andrew Campbell (Foto: Linkedin-Profil) sieht in dem System weniger ein Überwachungswerkzeug als vielmehr einen „… Weg für neue Formen des Feedbacks an die Arbeitnehmer, um ihnen … eine Anleitung zu geben, wie sie ihre Arbeit angehen”.

0

Mehr Leistung durch Objekt-Kompression

Posted by in Allgemein

Diese Seite teilen:

Eine neue Datenkompressionstechnik (Symbolbild: Christine Daniloff, MIT) soll dafür sorgen, dass redundante Inhalte eliminiert, dadurch Speicher freigegeben und im Effekt Computer-Performance gesteigert wird. Wie Eurekalert berichtet, hat ein Team des Massachusetts Institute of Technology (MIT) kürzlich auf einer Konferenz ein entsprechendes Papier präsentiert. Das Kompressionsverfahren funktioniert Forschern des Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT zufolge mit allen objektorientierten Programmiersprachen, und zwar ohne Veränderung des ursprünglichen Programmcodes.

0

Deep-Learning-Standard ONNX

Posted by in Allgemein

Diese Seite teilen:

Frameworks für Deep Learning gibt es zuhauf, teils als Open Source: TensorFlow (Google), PyTorch (Facebook), MXNet (Amazon) und weitere. 2017 haben Microsoft, Facebook und Amazon gemeinsam den Standard Open Neural Network Exchange (ONNX) geschaffen, um Deep-Learning-Modelle zwischen unterschiedlichen Frameworks austauschen zu können, wie Nico Axtmann (Foto) im Codecentric-Blog schreibt. Der Autor gibt einen Überblick über ONNX und benennt dessen wichtigsten Vorteil: Forschungsergebnisse könnten schneller produktiv werden – unter der Voraussetzung, dass Datentypen und Operationen von ONNX genutzt werden.

0

Mehr Sicherheit im Chip-Design

Posted by in Allgemein

Diese Seite teilen:

Forscher an der Technischen Universität Kaiserslautern um Wolfgang Kunz (Bild, Mitte) haben in Kooperation mit der Universität Stanford einen Algorithmus entwickelt, der in der Lage sein soll, möglicherweise sicherheitskritische Fehler beim Chip-Design zu entdecken, bevor die Prozessoren in die Serienfertigung gehen. Wie Eurekalert berichtet, sollen mit der Methode namens „Unique Program Execution Checking“ (UPEC) sowohl High-end-Prozessoren als auch einfache Chips für Alltagsgeräte (Internet der Dinge) bereits bei der Entwicklung optimiert werden. – Bemühungen um sicherere Chip-Designs sind 2018 nach der Entdeckung von „Spectre“ und „Meltdown“ signifikant verstärkt worden.

0

Google-Fachfrau erklärt Quantencomputer

Posted by in Allgemein

Diese Seite teilen:

„Ask a Techspert“ heißt eine neue Serie von Beiträgen im Google-Blog „The Keyword“, in der Google-Experten komplexe Technologien erklären mit dem Anspruch, so verständlich wie möglich und trotzdem sachlich korrekt zu sein. Bereits am 4. März erschien die erste Folge, in der Marissa Giustina aus dem Google-Labor in Santa Barbara sich mit Quantencomputern auseinandersetzt. Unter anderem erläutert sie den Unterschied zwischen Bits und Qubits (Abb.: Wikipedia) und zu welchen Zwecken Quantencomputer eingesetzt werden können – zur Simulation chemischer Reaktionen zum Beispiel. Der zusammenfassende Text wird begleitet von einem ausführlicheren Video.

0