SHE-Blogpicks

Softwarekosten und das Wert-Argument

Posted by in Allgemein

Diese Seite teilen:

Wartung und Instandhaltung von Software kosten zwischen 40 und 80 Prozent der Aufwendungen über den Lebenszyklus, schreibt Robert Ferguson im Blog des Software Engineering Institute (SEI) an der Carnegie Mellon University. Statt zu fragen, weshalb Software-Support so teuer ist, analysiert der Autor in seinem Post, wie sich kontinuierliche Softwareinvestitionen rechnen können – und zwar mithilfe eines fünfstufigen Prozesses zur Release-Planung, wie er beim US-Verteidigungsministerium üblich ist: Klassifizierung von Change Requests, Evaluierung der erforderlichen Schritte, Budgetierung, Definition von Auswahl-Sets und Festlegung der endgültigen Änderungen. – Erhoffter Effekt, so Ferguson: Wer den Wert von Software versteht, werde höhere Kosten eher akzeptieren.

0

Mehr Leistung durch Objekt-Kompression

Posted by in Allgemein

Diese Seite teilen:

Eine neue Datenkompressionstechnik (Symbolbild: Christine Daniloff, MIT) soll dafür sorgen, dass redundante Inhalte eliminiert, dadurch Speicher freigegeben und im Effekt Computer-Performance gesteigert wird. Wie Eurekalert berichtet, hat ein Team des Massachusetts Institute of Technology (MIT) kürzlich auf einer Konferenz ein entsprechendes Papier präsentiert. Das Kompressionsverfahren funktioniert Forschern des Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT zufolge mit allen objektorientierten Programmiersprachen, und zwar ohne Veränderung des ursprünglichen Programmcodes.

0

SW-Entwicklung: Fetisch Komplexität?

Posted by in Allgemein

Diese Seite teilen:

Eigentlich gilt in der Softwareentwicklung Conways Gesetz von 1968 mit der Forderung, Komplexität zu eliminieren beziehungsweise zu beherrschen, etwa durch Modularisierung. Oft jedoch, meint Eberhard Wolff (Bild) im Blog von Heise Developer mit Bezug auf Conway, werde Komplexität geradezu angebetet: Manager strebten aus Prestige-Gründen ein möglichst großes Team und ein entsprechendes Budget an, Architekten und Entwickler seien stolz auf die Größe und Komplexität der Herausforderungen, vor denen sie stehen. Conway und Wolff unisono: Neben Mehrkosten (vielleicht nicht so schlimm) könne das nach den Parkinsonschen Gesetzen zu chaotischer Kommunikation und einem Kollaps der Softwarearchitektur (schlimm) führen.

0

Regeln für den Robotereinsatz

Posted by in Allgemein

Diese Seite teilen:

Mit Software-Robotern (Symbolbild) können Unternehmen die Abläufe in Applikationen automatisieren, und so vor allem Legacy-Anwendungen effizienter machen. Dabei sollten sie allerdings ein paar Regeln beachten, die Carsten Rust im Digitalewelt-Magazin beschreibt. Zu diesen Regeln, so der Solutions Consultant vom CRM-Spezialisten Pegasystems, gehöre auch, dass Robots langfristig den Aufbau einer konsistenten IT-Architektur nicht überflüssig machen.

0

Cloud-native: teurer als gedacht

Posted by in Allgemein

Diese Seite teilen:

Programme, die eigens für die Cloud geschrieben wurden, laufen dort besser und kostengünstiger als Legacy Software. Aber die Kosten für die Legacy-Migration in echte Cloud-Programme sind meist höher als man denkt. Davor warnt David Linthicum (Bild) in der Infoworld. Nach seiner Erfahrung, berichtet der Autor und Berater, wird das Refactoring, also die cloud-optimierte erneute Codierung existierender Software, bis zu dreimal so teuer wie ursprünglich geplant. Der Hauptgrund Linthicum zufolge: Die Qualität der alten Software sei meist wesentlich schlechter als erwartet, so dass zuerst einmal Kosten dafür entstünden, ihre Architektur in einen vernünftigen Basiszustand zu bringen. Erst dann könne man mit dem eigentlichen Refactoring beginnen.

0