Capítulo 17
De la antiinterfaz a la interfaz humana pasando por la interfaz gráfica: Síntesis
We know what we are, but know not what we may be.
Sabemos lo que somos pero no lo que podemos ser.
William Shakespeare
El proceso que hemos intentado describir a lo largo de este libro tiene como principal y destacado protagonista a la interfaz. La interfaz es simplemente el sistema mediante el cual nos comunicamos con las máquinas. Existen interfaces, pues, desde que se inventó el primer artilugio mecánico pero, por ilógico que parezca, la interfaz ha recibido poca o nula atención hasta muy recientemente. En la historia de la informática, la reflexión sobre la forma en cómo interactuamos con el ordenador no ha empezado a adquirir relevancia hasta estos últimos diez años en que paulatinamente ha comenzado a ser objeto de atención preferente.
Los primeros ordenadores eran meras calculadoras gigantes y su principal finalidad era exclusivamente agilizar los cálculos masivos y reducir al mínimo la posibilidad de error. La evolución de la tecnología daría lugar al cabo de los años a chips más pequeños primero, que abrirían la posibilidad de máquinas más manejables, y a procesadores cada vez más potentes y con más capacidades, como las gráficas, después, que permitirían el nacimiento de sistemas más sofisticados. Sin embargo, el ordenador personal nacería heredando la mentalidad de las anteriores máquinas que servían para unas finalidades y un entorno muy concreto y cuyo diseño se encontraba anclado en los parámetros de la revolución industrial, es decir, en la mentalidad que exigía que fueran los usuarios los se adaptaran a las máquinas y no al revés.
Pero el advenimiento del ordenador personal, dirigido a un público mucho más variado, y sobre todo mucho más inexperto, convertiría en un tema crucial la forma en cómo este público se comunicaba con la máquina. La gran expansión que la informática personal vivió a partir del uso y proliferación de interfaces más humanas demostró cuan importante era el mecanismo de interacción y hasta que punto habían sido un freno las primeras interfaces.
El fracaso de las primeras interfaces
Durante la primera década de vida del ordenador personal, la limitación de la propia tecnología junto con la falta de visión de la mayoría de fabricantes y desarrolladores desembocó en la creación de sistemas que no tenían en cuenta las necesidades de las personas. Durante prácticamente toda la década de los setenta y parte de los ochenta, la mayor parte de la industria se resistió a abandonar unos parámetros heredados de las primeras generaciones de ordenadores y subordinados a un hardware diseñado años atrás. Estos sistemas interactuaban con el ordenador a base de comandos crípticos y poco lógicos, y en consecuencia, difíciles de memorizar y de aplicar sin cometer errores. El resultado de ello era una reducción notable de la productividad potencial de los individuos y una gran cantidad de tiempo perdido dedicado a aprender el funcionamiento de los programas. Así se había funcionado hasta ese momento con los grandes ordenadores denominados mainframes y los miniordenadores aparecidos a posteriori. La propia concepción del ordenador personal no parecía ser motivo suficiente para que inicialmente la industria, al menos sus líderes, se planteara algún cambio al respecto. Estos primeros años crearon toda una generación de individuos reticentes a confiar en unas máquinas que les pedían tanto a cambio de, en aquellos días, aún tan poco. Los ordenadores se convirtieron para muchos en algo asociado a la dificultad, a máquinas para gente preparada, experta, y sobre todo, en una amenaza intrínseca a sus puestos de trabajo. El ordenador se veía, es visto aún por muchos, como una herramienta de progreso a costa de los individuos. Este creciente temor había sido generado por la dificultad de aprender a utilizar estos primeros sistemas, por esa larguísima y tortuosa curva de aprendizaje que exigía su manejo, y por la hostilidad que tales sistemas engendraba en las personas. En el fondo, se trataba exclusivamente de un estrepitoso fracaso de la interfaz.
Poco a poco, entre los avances del hardware y la persistencia de los primeros pioneros, la industria fue volcando su interés en facilitar la interactuación con las máquinas y el esfuerzo de humanizar los ordenadores se convirtió en una necesidad. Sin embargo, tan sinuosos comienzos dejarían su legado. Por un lado, numerosas personas quedarían al margen de la informática por miedo a enfrentarse a ella y a fracasar, o por ser incapaces de terminar felizmente el prolongado periodo de aprendizaje que habían iniciado. Otras quedarían "enganchadas" a la informática obscura y serían muy reticentes a pasarse a otros sistemas más humanizados después de haber dedicado tanto tiempo y esfuerzo a dominar los anteriores. Este primer fracaso de la interfaz crearía muchos enemigos de la informática, y lo que es peor, generaría toda una industria económicamente dependiente de estos sistemas y que se aferraría a ellos para amortizar sus inversiones. Entre las personas mayores aún podemos encontrar en la actualidad numerosos ejemplos de esta reacción "antiinformática".
El ordenador como extensión de la mente humana
Muchos han sido pues los obstáculos que ha tenido que superar la concepción de una informática pensada para las personas y que, a pesar de ver sus frutos tan recientemente, ya fuera proclamada hace tantos años. Y, no obstante, sus postulados son más bien obvios: máquinas al servicio de las personas y no personas doblegadas a las exigencias de las máquinas, hacer accesible el poder de la informática a todo el mundo o el ordenador como electrodoméstico. Es como si hubiéramos estado inmersos en un callejón sin salida que nos ha hecho perder un tiempo precioso al empeñarnos en utilizar algo que no nos llevaba a ninguna parte y no nos permitía sacar lo mejor de nosotros.
Esta humanización, en fin, de la informática no es más que una democratización de los recursos. Volver a poner a la máquina donde le corresponde en su papel de herramienta, de medio y no de fin, es abrir las puertas del conocimiento al mundo entero. Y dando poder al usuario y no al programa estamos fomentando la imaginación de las personas que es la principal herramienta de la que dispone el ser humano. Fomentando esta imaginación los individuos se pueden enfrentar a los problemas actuales de muy distinta manera. Los discursos sobre la supuesta falta de puestos de trabajo o la usurpación de estos por parte de las máquinas desaparecerían. Bien al contrario, la gente se alegraría de que fueran las máquinas las encargadas no sólo de las tareas más duras físicamente sino de las más aburridas y repetitivas intelectualmente. ¿Qué hay de malo en que un ordenador se pueda encargar algún día de clasificar a diario la correspondencia que llega a Correos, de atender el servicio de información de las compañías telefónicas o de conducir un autobús de rutinario recorrido? Las personas, con su imaginación, encontrarán nuevas ocupaciones cada vez más creativas y acordes con las necesidades actuales de la sociedad. Con imaginación aprenderemos a resolver antes los problemas y podremos dedicar el tiempo sobrante a nuestro ocio particular. Lo cierto es que mucha gente se resiste a usar su imaginación por falta de práctica, comodidad o simplemente miedo al fracaso, algo fomentado por el uso de herramientas poco creativas como son las interfaces mal diseñadas o los medios de comunicación que exigen un comportamiento tan pasivo del usuario como la televisión. La finalidad última de las máquinas debería ser que fueran capaces de impulsar nuestra imaginación, que constituyeran una extensión real de nuestra mente y, para ello, es indispensable un buen diseño en los sistemas de interacción entre hombre y máquina.
La interfaz actual
De las antiinterfaces que caracterizaron los primeros años de la informática personal (a las que denomino así por su habilidad por poner trabas a lo que era su principal objetivo: la comunicación entre usuario y ordenador) se pasó a mitad de los ochenta a las interfaces gráficas que conocemos en la actualidad. Pero la progresión podríamos sintetizarla en las siguientes fases.
En primer lugar aparecieron los sistemas basados en una simple representación de la metáfora gráfica. Sus elementos centrales eran el uso del ratón y el teclado para interactuar con el ordenador a través de iconos, menús y símbolos en la pantalla. La metáfora gráfica de la oficina en primer término y del escritorio de trabajo después se rebelarían como la mejor manera de familiarizar al usuario con el entorno informático. El Alto de Xerox se encontraría en este estadio. El Star, el Lisa y el Macintosh formarían parte de la siguiente evolución de la interfaz a la que se sumaría posteriormente Microsoft Windows y otros sistemas operativos, y naturalmente, la mayor parte del software diseñado para ellos. En la primera fase nace propiamente el concepto de interfaz gráfica del usuario, concepto que evoluciona y se perfecciona después con sistemas que son más que meras metáforas gráficas de un entorno familiar para el usuario y se optimiza especialmente con el paso de gráfico a humano. La interfaz humana es además intuitiva porque permite que el usuario se mueva por ella simplemente guiándose por sus sentidos. Los sistemas humanos, "human-centered", como dicen los americanos, son sistemas centrados en la persona.
Obviamente, el diseño de la interfaz está en constante evolución. En la actualidad existen numerosos organismos públicos y privados dedicados a estudiar la interacción entre seres humanos y ordenadores, especialmente en Estados Unidos pero también en Europa, organismos que tienen como primer objetivo desarrollar tecnologías que sirvan a las necesidades reales de las personas. Pero las guías básicas del diseño de las interfaces las encontramos ya en dos documentos con más de una década de antigüedad. El primero eran los principios básicos que los diseñadores del PARC de Xerox definieron para el Star en 1981 y el segundo son las directrices básicas diseñadas por Apple Computer pocos años más tarde para la interfaz del Macintosh. Puede decirse que la evolución de los parámetros de interacción hombre-máquina han seguido esas líneas básicas hasta ahora en que las nuevas necesidades de las personas y las nuevas posibilidades de la tecnología están empezando a ampliar los horizontes de los diseñadores de interfaces. Y es que los parámetros diseñados en la década de los ochenta han dejado de ser los más adecuados para la realidad existente a las puertas del siglo XXI.
En la actualidad, la interfaz gráfica del usuario ha invadido prácticamente todo el mercado de la informática personal tanto en lo que se refiere a sistemas operativos como en cuanto al software en general. De los diversos sistemas operativos gráficos que existen en estos momentos en el mercado destacan especialmente tres: Windows 95, en primer lugar, por ser el más extendido del mercado; el Mac OS de Apple, que puede considerarse como el segundo estándar del mercado a pesar de poseer sólo alrededor del 10% del mercado; y el OS/2, el sistema operativo propietario de IBM, en vías de extinción pero todavía, aunque escuálidamente, presente en el mercado. Existen otros sistemas operativos con una interfaz gráfica del usuario pero, a parte de algún caso aislado como el Be OS, todos están pensados para ser utilizados en ordenadores conectados a un servidor y funcionando como estaciones de trabajo. De entre ellos destacan los sistemas operativos de Sun o Silicon Graphics en segundo término y a un nivel mucho más avanzado, el NextStep, un sistema operativo diseñado por el exfundador de Apple, Steve Jobs, con una de las interfaces más elegantes y avanzadas, adquirida por Apple Computer a finales de 1996. Pero en el entorno doméstico, al menos en los países desarrollados, las plataformas dominantes son Windows, Mac y OS/2 siendo Windows, con mucho, la plataforma más extendida. Podemos encontrar alguna versión de Windows en más de las tres cuartas partes de todos los ordenadores personales.
Sin embargo, ni Windows ni el OS/2 nunca han tenido ni la consistencia ni la integración del Mac OS, dos de las principales características de la interfaz humana que Apple diseñara en 1984. La plataforma abierta que ha sido siempre Windows junto al hecho de que se trata de una interfaz diseñada a posteriori para montarse sobre el sistema operativo MS-DOS han impedido que gozara de las peculiaridades de un sistema diseñado desde su nacimiento como un entorno integrado. Los usuarios de Windows gozan de un aspecto global muy parecido al del Macintosh pero en absoluto de su consistencia. Sin embargo, incluso una interfaz como la del Macintosh necesita en estos momentos de una profunda revisión. En estos momentos, importantes empresas como Microsoft Corporation, Apple Computer o Sun Microsystems centran gran parte de sus esfuerzos e inversión en investigar como debe evolucionar la interfaz en colaboración con numerosos institutos y laboratorios de todo el mundo. En esta tarea participan tanto los diseñadores de hardware ofreciendo tecnologías más potentes, como los diseñadores de software creando aplicaciones más inteligentes e incluso los investigadores de la psicología humana, profundizando en sus conocimientos sobre el comportamiento humano. Conseguir que las personas trabajen más cómodamente con las máquinas y sean el máximo de productivas y creativas con ellas es su reto y el de todos nosotros en la medida en que somos consumidores de sus productos y podemos, de hecho debemos, hacerles llegar nuestras exigencias y necesidades.
Y TAMBIÉN...
"Human-Computer Interaction Research"
En estos momentos existen en todo el mundo gran cantidad de institutos y departamentos, especialmente de universidades, que dedican gran parte de su investigación a la interacción entre el hombre y la máquina, lo que los anglosajones denominan como "human-computer interaction". Los esfuerzos de todos estos centros se suman así a la propia investigación privada que realizan las empresas muchas veces en colaboración con estos institutos. Estados Unidos es, naturalmente, donde podemos encontrar más institutos dedicados a la investigación de la interfaz y la interacción con los ordenadores (prácticamente en todas las universidades de informática hay alguno). Los principales ejemplos son el Media Lab del Massachusetts Institute of Technology, el Human-Computer Interaction Institute de la School of Computer Science en la Universidad Carnegie Mellon, el Human-Computer Interaction Laboratory de la Universidad de Maryland, The Centre for People and Systems Interaction de la Universidad South Bank, el Interactive Systems Group del departamento de informática y ciencias de la información de la Universidad de Oregon, o el Human Computer Interaction Lab de la Universidad de Binghamton. El Palo Alto Research Center de Xerox edita además una publicación titulada Human-Computer Interaction. Pero también en Europa existe un gran interés al respecto. Una muestra de ello es, por ejemplo, Gran Bretaña donde podemos encontrar el Human Centered Systems Design de la Universidad de Plymouth, el Human Cognition Research Laboratory de la Universidad abierta o The Human-Computer Interaction Group del departamento de ciencias informáticas de la Universidad de York. También están el Groupe Interaction Homme-Machine del Laboratoire de Recherche en Informatique de la Universidad de Paris-sur en Francia o el Institut für Telematik de la facultad de informática de la alemana Universidad Karlsruhe.
Ir a Introducción - 1 - 2 - 3 - 4 - 5 - 6 - 7 - 8 - 9 - 10 - 11 - 12 - 13 - 14 - 15 - 16 - 17 - 18