Tan loco como para cambiar el mundo

Tan loco como para cambiar el mundo
El evangelio informático de Steve Jobs en la intersección de las humanidades con la tecnología

Héctor Goldin
Flavia Tomaello

Nota de los autores: La presente obra es un ensayo sobre la visión creativa de Steve Jobs, un personaje público de enorme influencia en las generaciones actuales y futuras. Consideramos que su mayor legado ha sido lograr que la humanidad haya podido resolver sus necesidades y alcanzar sus aspiraciones a través del uso de tecnología avanzada pero accesible y comprensible por cualquier persona. La mención de su nombre, así como de la marca Apple y otras similares, es de carácter meramente informativo, necesaria para describir los hechos y circunstancias imprescindibles para contextualizar la obra. Todas las marcas registradas que se mencionan en la presente obra son propiedad exclusiva de sus respectivos titulares.

Goldin, Hector

Steve Jobs, tan loco como para cambiar el mundo / Hector Goldin y Flavia Tomaello. - 1a ed. - Ciudad Autónoma de Buenos Aires : Errepar, 2014

Archivo Digital: descarga
ISBN 978-987-01-1685-1

1. Política. I. Título.

CDD 320.984

Tan loco como para cambiar el mundo

Héctor Goldin y Flavia Tomaello

ERREPAR S.A.

Paraná 725 (1017) - Buenos Aires - República Argentina

Tel.: 4370-2002

Internet: www.errepar.com

E-mail: clientes@errepar.com

Nos interesan sus comentarios sobre la presente obra:
editorial@errepar.com

© 2013 ERREPAR S.A.

Digitalización: Proyecto451

Queda rigurosamente prohibida, sin la autorización escrita de los titulares del “Copyright”, bajo las sanciones establecidas en las leyes, la reproducción parcial o total de esta obra por cualquier medio o procedimiento, incluidos la reprografía y el tratamiento informático.

Inscripción ley 11.723 en trámite

ISBN edición digital (ePub): 978-987-01-1685-1

Flavia Tomaello

– Contadora Pública y Licenciada en Comunicación Social (ambos casos, UBA).

– Experiencia superior a 25 años como periodista en más de 40 medios de Latinoamérica: Apertura, Target, La Nación, Mercado, El Publicitario, Para Ti, Ohlalá, EntreCasa, Prensa Económica, Diario Perfil, etc.

– Publicó más de una decena de libros (no ficción, ficción e infantiles) para editoriales como Atlántida, Longseller, Abran Cancha, Paidós, Grijalbo, etc.

– Dirige hace 20 años una consultora de prensa y redes sociales.

Héctor Goldin

– Ingeniero Electrónico (UBA, 1974).

– Presidente de Maxim Software SA, Apple Premium Reseller, fundada en 1987.

– En sus primeras intervenciones con Apple, desempeñó la función de contacto con los desarrolladores argentinos, tarea que en la empresa llamaban “evangelizar”. Este rol “religioso” consistió en sembrar las virtudes de la interfaz gráfica de Apple frente a las dificultades de las tradicionales.

– Brindó conferencias en los eventos Macworld de San Francisco y Nueva York.

– A partir de 2008, y tras la designación de Maxim como Apple Premium Reseller, la mayor categoría de revendedores de la marca, Goldin ha colaborado muy de cerca con los directivos de la división Apple de Latinoamérica y el Caribe para presentar a los usuarios de Argentina los productos Apple con el mejor nivel internacional.

Agradecemos la inestimable colaboración
de Marcia Tomas, sin cuya pasión hubiera sido
muy difícil avanzar entre las ideas.

Introducción

Las mentes brillantes cambian la historia, no lanzan productos ni obtienen ganancias millonarias. Cuando un desarrollo es capaz de crear una nueva realidad, casi adivinando aquello que las personas desearán en el futuro o el modo en que querrán vivirlo, está creando paradigmas.

El fallecimiento de Steve Jobs inspiró numerosos artículos y libros sobre su vida; sin embargo, el enfoque central ha sido sobre su capacidad empresarial o sobre sus actitudes idiosincráticas. De lado quedó la posibilidad de explicar sus ideas transformadoras y sus logros concretos. Aquellas que eran la base del objetivo primordial de Steve Jobs –tantas veces citado– de cambiar el mundo. Con esa omisión, se abandona un principio esencial de su espíritu: lograr que la humanidad pueda resolver sus necesidades y alcanzar sus aspiraciones mediante el uso de tecnología avanzada, pero accesible y comprensible para cualquier persona.

Hacer un camino nuevo, inimaginable, que sorprenda a las generaciones posteriores, como los aviones ideados por Da Vinci, es una experiencia relativamente escasa a lo largo de la historia. Y difícil de mensurar para los coetáneos. Otra coincidencia entre Jobs y Da Vinci, quien fue simultáneamente artista, ingeniero e inventor, es su ubicación en la intersección de las humanidades con la tecnología, capaz de hacer de una computadora una obra de arte y de crear una herramienta inigualable para los artistas.

Este libro emprende el desafío de relatar el modo en que Steve Jobs, a través de los equipos de gente que dirigió en Apple, NeXT y Pixar, se ubicó siempre en esta perspectiva, y cómo logró, exigiendo al máximo la tecnología disponible en cada momento, que esta pudiera cumplir su objetivo humanístico transformador.

Se relatarán los logros humanos obtenidos con su injerencia y el estadio al que llegó hasta su fallecimiento, contemplando desarrollos que lo sobrevivirán por años. Se propondrá una forma de comprender la tecnología que nos circunda de un modo “jobsiano”, permitiendo que esté al alcance de todo lector.

También se analizarán algunos objetivos que no se cumplieron a raíz de su muerte y qué desafíos podrán quedar para la creatividad de futuros innovadores que levanten su posta y continúen el camino en pos del avance de la humanidad.

Capítulo 1

La génesis de la semilla

Como si se tratara de emular la historia de la humanidad, una Eva fue la primera responsable del protagonismo adquirido por la manzana tecnológica. Desde la perspectiva histórica de la tecnología informática, una mujer dio el primer paso hacia el concepto universalista e integrador que desarrollará Steve Jobs mucho tiempo después.

Lady Ada Lovelace fue quien, ya en 1851, percibió que el descubrimiento de la computadora moderna podía ir mucho más allá del mero cálculo, para influir en cuestiones más humanas como la música. Fue la primera persona en situarse en esta intersección de la tecnología con las humanidades.

La dama trabajó como asistente del matemático inglés Charles Babbage (26/12/1791 - 18/10/1871), pionero en el diseño de una computadora “moderna” (no en el sentido de los detalles constructivos, pero sí en el principio de funcionamiento). La máquina de Charles Babbage –que nunca se llegó a construir– cumplía con los requerimientos de lo que se consideró una computadora.

Nos situamos en el siglo XIX. Augusta Ada Byron King, condesa de Lovelace (Londres, 10/12/1815 - Londres, 27/11/1852), se convertía en aquel entonces en la primera programadora en la historia de las computadoras. Su padre la dejaría a los dos meses de edad al separarse de su madre Annabella Milbanke Byron. En medio de un universo machista, de todos modos siguió estudios particulares de matemáticas y ciencias, bajo la tutela de Augustus De Morgan, primer profesor de matemáticas de la Universidad de Londres.

Para pensar en tecnología por entonces, era preciso ser autodidacta e interrelacionar conocimientos dispersos. Sus aportes se iniciaron merced a su tarea como asistente de Charles Babbage. La idea surgió a partir de algunas máquinas textiles y, sobre todo, del telar creado por Joseph Marie Jacquard (Lyon, 7/7/1752 - Oullins, 7/8/1834), inventor francés quien daría nombre a su invención: el telar automatizado mediante el uso de tarjetas perforadas. Inspirado en él, Babbage pensó en hacer una máquina que pudiera calcular, pero que contuviera dentro de sí misma la forma de escribir los cálculos. Este paso de “hacer algo adentro de sí mismo” fue revolucionario.

Antes de este hito, el inventor dejaba documentado mediante planos y especificaciones técnicas todo el proceso de la máquina que creaba, porque no era posible programarla. El ingeniero escocés James Watt, por ejemplo, inventó algunos equipos que se podrían llamar “inteligentes”: el regulador o gobernador de Watt es uno de ellos. Consiste en una válvula regulable que al girar más rápido se cerraba y que más tarde se conoció como “realimentación negativa”. En ese punto de la evolución tecnológica, se podía decir que dicha máquina actuaba con cierto nivel de inteligencia, porque al girar más rápido reducía la cantidad de vapor que permitía pasar, y al girar más lento la aumentaba. El mecanismo, entonces, permitía regular la velocidad a través de la realimentación negativa, un concepto que se convertiría en clave para la evolución de los sistemas como un principio de acción inteligente.

El mencionado telar de Jacquard a base de tarjetas perforadas podía construir distintas clases de hilados. Aunque debía ser operado por una persona, era posible configurarlo según los tipos de tela y los patrones de hilado, un proceso que, podría decirse, contaba con cierto nivel de programación.

Con esos rudimentarios antecedentes, aunque muy inspiradores para los pensamientos inquietos, a Babbage se le ocurrió desarrollar una máquina capaz de variar los cálculos que hacía en función de una programación. Para ello, contrata a Ada Lovelace, quien visitaba su taller desde su juventud.

Por aquel tiempo, Inglaterra era un hervidero de creativos ávidos de inventar. La multidisciplinariedad era un lugar común. Un mismo personaje aprendía de mecánica, sumaba estudios de física, indagaba los principios de la química... Desde todos los ámbitos, se aguardaban progresos y la idea de mecenas, que en algún momento de la historia se afirmó en el arte, llegó a las disciplinas técnicas. La corona inglesa seducía a los inventores todo el tiempo, proponiendo equipos para crear a cambio de un premio en dinero. Tanta inquietud hizo crecer la participación de las personas y convirtió en tentadoras a las nuevas áreas de estudio.

Ante ese escenario, y seducido por los primeros pasos dados, Babbage empezó a buscar el modo de hacer cálculos, un tema que lo cautivaba: una persona podía pasar años haciéndolos, y mecanizar el modo de obtener resultados en cálculos complejos podía convertirse en un gran paso hacia otro futuro.

Con una mentalidad amplia y la mira puesta en su objetivo, suma como colaboradora a la hija de Byron, a quien logra obsesionar con su proyecto. Gracias a su mirada de mujer, Ada abre el horizonte y suma nuevas ideas que adhieren profundidad a lo meramente técnico: el concepto filosófico de las máquinas programables. A pedido de su jefe, transcribe un texto traducido del matemático italiano Luigi Menabrea. A las tres páginas originales le suma dos decenas de su propia autoría mucho más ricas e intensas que la traducción misma. Esas notas son consideradas el germen de lo que más tarde fue la programación, y ella fue reconocida mucho después, por ejemplo, por el Departamento de Defensa de Estados Unidos que diseñó un lenguaje al que llamó Ada en su honor. Este es probablemente el lenguaje de programación más avanzado que se haya desarrollado.

Lady Lovelace está considerada la primera programadora y una fuerte figura femenina dentro de un ambiente regido casi totalmente por hombres.

Palabras de mujer

El trabajo de Ada fue olvidado por muchos años. Apenas se le concedía el papel de transcriptora de las notas de Babbage. Como ocurrió con hombres de las letras o de la música, el científico abonó la idea de que ella fue la intérprete de sus propias opiniones. Son bastante recientes los reconocimientos a su mirada original e independiente de la de su jefe.

Sobre las notas, una de las principales cuestiones a destacar es que creía posible la programación y que esa codificación se podía utilizar para interpretar música, por ejemplo. Es ella quien ve un universo más allá de los números, pero inspirado en ellos. Es Ada quien considera que la programación puede ser aplicada a cuestiones ajenas a las matemáticas, permitiendo que las máquinas hagan muchas otras actividades diferentes al mero cálculo.

A Babbage le rondaba la idea de construir una nueva clase de equipo de cálculo, una máquina analítica de carácter general. Este es el concepto del computador moderno de uso general que significó un tranco en la historia de la computación. En 1843, Ada publicó una serie de notas sobre la máquina analítica de su jefe que firmó con las iniciales de él por miedo a ser censurada por su condición de mujer, como una especie de George Sand de la tecnología.

Se consideraba a sí misma como una analista y metafísica, conceptos que sus coetáneos no llegaban a interpretar. Faltarían muchos años para que así sucediera. Con ese enfoque, Ada desarrolló puntillosamente algoritmos y operaciones trigonométricas que se sucedían en la máquina analítica de Babbage. También se explayó sobre el uso de tarjetas perforadas para programar.

Su forma de leer los avances y de combinar conocimientos le permitió no enfocarse en el cálculo, como sí sucedía con Babbage, quien centró sus estudios en ello durante toda su vida. La mujer consiguió detectar la filosofía esencial de una computadora, pero no llegaron a tener una en el sentido actual con el que hoy la conocemos.

El equipo de Charles Babbage –que nunca llegó a construir– cumplía con los requerimientos de lo que se consideró más tarde una computadora. Esta revolución iniciada por Lovelace fue el primer quiebre en la historia de la informática, una experiencia que Jobs recreó una y otra vez al revertir los conceptos que se tenían antes del 76, a partir de que él y Steve Wozniak se juntaran para imaginar una nueva idea, una reformulación de lo que ya existía.

Fue precisamente el dúo Babbage-Lovelace quien primero comprendió que el equipo a construir no era una computadora (que quiere decir “algo que calcula”) ni tampoco un ordenador (palabra utilizada en español y en francés, cuyo origen se remonta a unos equipos de IBM que servían para ordenar); en realidad, una computadora moderna es mucho más que una computadora y un ordenador.

Entre sus múltiples aportes, esta Lady de la tecnología dejó el uso de tarjetas perforadas como método de entrada de información e instrucciones a la máquina analítica. Además, creó una modalidad de escribir programas, principalmente basada en el texto que tradujo del especialista Luigi Menabrea sobre el funcionamiento del telar de Jacquard. Pero, por sobre todo, dejó una mirada ajena a la técnica, un horizonte que llega más allá de las matemáticas y que resultaría inspirador para sus sucesores. Fue la hija de un poeta la que vio poesía en la tecnología futura.

Capítulo 2


Turing cree que las máquinas piensan

Los orígenes de la computación parecen haber estado en manos de minorías. Mientras una mujer se las ingeniaba para pensar a la tecnología como una alternativa válida que resolviera problemas cotidianos, aun cuando no llegara a verla en su realización final, fue un hombre condenado por la ley por su homosexualidad (cuestión que lo llevaría al suicidio) quien ideó la primera computadora teórica.

Curioso es pensar que los creadores puedan ver en sus cabezas aquello que los mortales solo podemos ver en la realidad. Ese paso lo dio Alan Turing (Maida Vale, Londres, 23/6/1912 - Wilmslow, Cheshire, 7/6/1954), quien a dos años de su muerte sería calificado como el padre de la inteligencia artificial, un concepto que tardaría décadas en ser experimentado por el hombre común.

Como los estudiosos de la época de Lovelace, Turing era un múltiple sapiente: matemático, científico de la computación, criptógrafo y filósofo. Su diversidad de pensamiento y especialización le permitió concebir una realidad de manera diferente.

Su padre, Julius Mathison Turing, era miembro del Cuerpo de funcionarios británicos en la India. Durante la infancia de Turing, sus padres viajaban constantemente entre el Reino Unido y la India, viéndose obligados a dejar a sus hijos con amigos ingleses. Cuando fue hora de estudiar, lo inscribieron en el colegio St. Michael, donde su primera docente hizo mención de un pensamiento genial en el recién llegado. Su ingreso al internado de Sherborne en Dorset creó el primer mito en torno a su persona –mostrando ya una personalidad que se aplicaría a su forma de pensar posterior–. Su primer día de clases coincidió con una huelga general en Inglaterra, pero la terquedad del adolescente de 14 años no se dejó vencer. Para llegar, recorrió más de 60 millas en bicicleta y decidió descansar en una posada, una aventura que fue recogida por la prensa local.

Le tocó luchar contra una serie de preconceptos de su época. En la escuela, se topó con que lo valioso para los docentes era el estudio de la literatura clásica y además desalentaban su perfil matemático. Por ello, emigró a King’s College, en la Universidad de Cambridge, donde egresó y se inició como docente. Para 1936, con 24 años, publicó un ensayo con lo que hoy se conoce como Máquina de Turing. Demostró que dicha máquina era capaz de implementar cualquier problema matemático que pudiera representarse mediante un algoritmo.

¿De qué se trata eso? La imagen más común para definir un algoritmo es una receta de cocina: sus instrucciones seguidas en una secuencia fija llevan a una persona o a una máquina a producir un resultado (por ejemplo, una tarta), que es el objetivo buscado por el escritor de la receta. Al escritor de un algoritmo se lo llama programador, como a Ada en el capítulo anterior.

La cocina tiene la particularidad de contar con indicaciones algo generales, por ejemplo: “una pizca de sal”. Para programar una computadora, se tendrán dos opciones: o en lugar de “pizca” se le da a la computadora una indicación precisa como “3,87 gramos de sal”, o bien se programa otra receta donde se le explica a la computadora un cálculo que debe usar cada vez que vea la palabra “pizca”. De ese modo, cada vez que el equipo vea “pizca”, leerá “3,87 gramos”.

Lo más valioso del modelo teórico que él diseñó, y que hoy se conoce como Máquina de Turing, es que era capaz de resolver cualquier algoritmo/receta que otra máquina pudiera resolver, o sea, dedujo que todas las computadoras son equivalentes entre sí porque logran el mismo propósito. Sería algo similar a decir que un monopatín, una bicicleta, un auto y un avión son equivalentes porque permiten el transporte. Es interesante cómo logró demostrarlo. Cualquier computadora con un programa almacenado puede estar ejecutando uno diferente que la haga simular ser cualquier otra. Ahí comenzó el concepto de la simulación o emulación, que será crucial en muchísimo de lo que se haga más adelante. Así, sencillamente se puede decir que es posible lograr que una computadora se comporte como cualquier otra, aunque no a la misma velocidad, porque deberá reinterpretar las instrucciones; sin embargo, en el planteo matemático de Turing eso no era significativo. El gran cambio en la forma de pensar la tecnología era detectar que un equipo pudiera hacer lo que hacía otro. Sobre la base de ese concepto, se desarrolla el de la máquina universal, asumiendo que cualquier computadora (a fin de usar un término más actual) se puede diseñar para que, a su vez, se pueda construir a partir de otra computadora. Muchos profesionales simplificaron este resultado y erróneamente consideraron qué quería decir que todas las computadoras eran iguales. No habían tenido en cuenta algo que sí vio Ada, el factor del usuario humano. Hizo falta llegar a Steve Jobs para que el mundo de la informática comprendiera cabalmente la importancia del usuario.

Turing siguió avanzando en su tarea de precursor. Durante la Segunda Guerra Mundial, se concentró en el descifrado de mensajes alemanes mediante un sistema llamado Enigma, por el que recibió grandes halagos. Pasada la contienda, fue objeto de uno de los más vergonzosos hechos de la política inglesa, equiparable quizá a la tortura de Galileo por la Inquisición en el siglo XV. Por su reconocida homosexualidad, se lo condenó a recibir hormonas que “paliarían su desvío”, llevándolo al suicidio a principios de los años 50. El reconocimiento del error cometido lo concretó el gobierno inglés hace unos pocos años, siguiendo los pasos del Vaticano con Galileo.

Su tragedia personal no empañó su brillante trabajo. Purgando el castigo, publicó su estudio sobre inteligencia artificial, que se conocería como el Test de Turing. La idea es simple: si una persona interactúa con una pantalla y no puede distinguir si está tratando con una persona o con una computadora, la computadora tiene inteligencia artificial.

El 4 de octubre de 2011 se conoce el mal estado de salud de Steve Jobs. Su reemplazante, Tim Cook, hacía la presentación del nuevo iPhone 4S con cara adusta y algo nerviosa. El último orador era Scott Forstall, discípulo directo de Jobs, tanto en lo que a tecnología se refiere como en el show mediático, quien presentó al mundo la última novedad de Apple: Siri, un sistema que conversaba con el usuario, dejándolo asombrado y haciendo que los entusiastas de la ciencia ficción recuerden al HAL de 2001 y que los profesionales de IT evoquen a Turing. Era tan fácil entrar en la ilusión que para muchos no era concebible que Siri fuera solamente un programa. Incluso se crearon locas especulaciones sobre ejércitos de técnicos que respondían a las preguntas.

Al día siguiente, Jobs falleció. Y, según su hermana, sus últimas palabras fueron repetir tres veces “Oh, wow!”.

La historia se llena de curiosidades... Alan Turing se suicidó mordiendo una manzana envenenada. La manzana envenenada fue la manera que tuvo la Reina Bruja para que Blancanieves durmiera por siglos. Este era el cuento preferido de Turing. Y Jobs creó como logo de Apple una manzana mordida. La Reina Bruja tenía un espejo mágico al que le hacía preguntas y este le respondía. Como culminación de su carrera por lograr productos cada vez más fáciles de usar, Apple hace realidad el espejo mágico de Blancanieves y cumple el Test de Turing. Steve Jobs muere, aparentemente, asombrado...

Capítulo 3


Un concepto nuevo para vivir la tecnología

El deseo de inmortalidad es innato al ser humano. La descendencia, el arte, dejar una marca en el universo es un modo de alcanzar la eternidad. Jobs lo tuvo claro desde su juventud, tal vez más sólidamente que otros en virtud de la debilidad de sus raíces.

Puede parecer increíble para muchos que su objetivo haya sido cambiar el mundo. Pero así lo repitió desde el principio de su carrera.

Para poder lograrlo, se ubicó mentalmente en la intersección entre la tecnología y las humanidades: buscó cómo hacer que las máquinas universales definidas por Turing hicieran tareas artísticas y humanísticas como las había imaginado Ada Lovelace y, además, lograr que aprovecharan la mayor potencia tecnológica disponible en cada momento, pero apuntando siempre a la facilidad absoluta para que la pudiera utilizar una persona común.

No existe hoy un dictamen unánime sobre si logró este objetivo, aunque para el mundo corporativo, haber creado la empresa más valiosa del mundo, lo es.

Para el universo técnico –que es naturalmente reduccionista–, en unos cuantos casos se piensa que “Jobs no inventó nada”, lo cual es falso, ya que su nombre encabeza numerosas patentes de Apple por haber conceptualizado muchos de los inventos importantes.

Otra vez llega, en este punto, la sombra de Da Vinci quien trabajó para los déspotas príncipes del Renacimiento, pero así era el modo de lograr su objetivo. Apple fue el mejor vehículo para producir lo que Jobs tenía pensado: productos que transformaran a la humanidad.

La génesis de la informática

La imagen de entes que piensan surgió en la imaginación humana hace siglos. Ya los mitos griegos tienen ejemplos, como es el caso de Pigmalión y Galatea, en el cual una estatua cobra vida. Aun desde la imaginación de un relato, su importancia radica en que solamente con una idea previa es posible hacer una realidad.

Lady Lovelace en primer lugar y Alan Turing después fueron los dos primeros que hicieron algo concreto a partir de su imaginación. Ella fue pionera en entender cómo el mismo principio de construcción de la primera computadora diseñada por Babbage también puede llegar a realizar otras acciones vinculadas a la cultura. Ella es la primera que logra enfocarlo en algo concreto. Si bien no lo construye, sí lo diseña con bastante detalle.

Turing, en tanto, ya tenía computadoras. Demuestra –primero con la máquina y luego lo profundiza y lo detalla con el Test– que la computadora es una máquina universal. Que puede llevar a cabo cualquier cosa que haga otra máquina. A partir de allí, se empezó a discutir si el cerebro humano era una computadora o no, si una máquina de Turing podía hacer o no cualquier cosa que hiciera un cerebro. Aun hoy esto no se ha dilucidado por completo.

Finalizada la Segunda Guerra Mundial, Estados Unidos se transforma en el centro del desarrollo tecnológico. IBM (International Business Machines, nacida el 16 de junio de 1911 de la mano de Thomas J. Watson) domina el mundo y esto no es casual. Sus desarrollos militares y el auge de la Guerra Fría la convierten en el centro de las actuaciones. Tener un cliente tan importante como el gobierno norteamericano que no repara en gastos le permitió a IBM lograr un enorme desarrollo. Borró –literalmente– a sus competidores del mercado.