la sociedad en la perspectiva informatica o ¿existe … de filosofía ucr/vol. xxvi/no....

8
Claudio Gutiérrez LA SOCIEDAD EN LA PERSPECTIVA INFORMATICA O ¿EXISTE UNA SOCIOLOGIA DE LOS COMPUTADORES? Summary: The advent of Al has made Episte- mology an empirical science. The advent of distri- buted computing is making computer science one of the "sojt" sciences. The era of the unerring computer is over: communication problems in distributed computing have created the fallible computer, which errs exactly for the same causes than the human brain: "Errare complexum est". Computer Science is using Social Science models to solve networking problems. A "boomerang effect" may benefit the Social Sciences. Resumen: El advenimiento de lA ha converti- do la Epistemología en una .ciencia empírica. El advenimiento de la computación distribuida está convirtiendo la informática en una ciencia "sua- ve". La era del computador infalible terminó: problemas de comunicación en computación dis- tribuida han creado el computador falible, que se equivoca por causas exactamente iguales que el cerebro humano; "Errare complexum est". La Informática usa modelos de las Ciencias Sociales para resolver problemas de redes. Un efecto "boomerang" puede beneficiar a las Ciencias Sociales. Me propongo en lo que sigue, introducir el tema de la Sociología de los Computadores. No me refiero a la Sociología de los usuarios de com- putadores, sino a la Sociología de los computado- res mismos. Tal disciplina o rama de una discipli- na, habría que entenderla como una ciencia que aplica conceptos y leyes descubiertas en el aná- lisis de las relaciones entre los seres humanos a las relaciones entre ciertos seres no humanos: los procesado res electrónicos. Si tal ciencia existe, o está a punto de existir, ello tendrá tremendas repercusiones para la Filosofía de la Ciencia y para la imagen que el ser humano tenga de sí mismo. De cualquiera de los dos modos que se vea, se trata de un asunto trascendente para la Ciencia del Conocimiento. Existen muchas maneras de conocer; se puede conocer directamente, a través de los sentidos, o indirectamente, por procesos de razonamiento en los cuales la mente se mueve de un conoci- miento a otro por medio de reglas de inferencia. También se puede conocer de manera indirecta por analogía, es decir diciéndonos a nosotros mis- mos que el fenómeno nuevo es como un fenóme- no ya conocido, y prediciendo aspectos de su com- portamiento a partir del modelo. Los modelos que nos sirven para conocer pueden ser hallados en la naturaleza o pueden ser construidos especialmente para el propósito cognoscitivo. Por ejemplo, el viejo Platón nos informa al principio de su obra maestra La República que va a tratar de explicar la naturaleza del alma humana usando como mode- lo la estructura de la sociedad: en este caso el mo- delo es preexistente, o tal lo parece. En el caso de un electricista que intenta arreglar un aparato de radio con el que no está familiarizado, él mismo construye el modelo, 'dibujado primero como es- quema de circuitos, y para validarlo hará (o imagi- nará) experimentos sobre los resultados de aplicar corriente a distintos alambres de entrada de ese modelo. Rev. Filosofía Univ. Costa Rica, XXVI (63, 64),33-40, 1988

Upload: others

Post on 02-Sep-2019

1 views

Category:

Documents


0 download

TRANSCRIPT

Claudio Gutiérrez

LA SOCIEDAD EN LA PERSPECTIVA INFORMATICAO

¿EXISTE UNA SOCIOLOGIA DE LOS COMPUTADORES?

Summary: The advent of Al has made Episte-mology an empirical science. The advent of distri-buted computing is making computer science oneof the "sojt" sciences. The era of the unerringcomputer is over: communication problems indistributed computing have created the falliblecomputer, which errs exactly for the same causesthan the human brain: "Errare complexum est".Computer Science is using Social Science modelsto solve networking problems. A "boomerangeffect" may benefit the Social Sciences.

Resumen: El advenimiento de lA ha converti-do la Epistemología en una .ciencia empírica. Eladvenimiento de la computación distribuida estáconvirtiendo la informática en una ciencia "sua-ve". La era del computador infalible terminó:problemas de comunicación en computación dis-tribuida han creado el computador falible, que seequivoca por causas exactamente iguales que elcerebro humano; "Errare complexum est". LaInformática usa modelos de las Ciencias Socialespara resolver problemas de redes. Un efecto"boomerang" puede beneficiar a las CienciasSociales.

Me propongo en lo que sigue, introducir eltema de la Sociología de los Computadores. Nome refiero a la Sociología de los usuarios de com-putadores, sino a la Sociología de los computado-res mismos. Tal disciplina o rama de una discipli-na, habría que entenderla como una ciencia queaplica conceptos y leyes descubiertas en el aná-lisis de las relaciones entre los seres humanos a

las relaciones entre ciertos seres no humanos: losprocesado res electrónicos. Si tal ciencia existe,o está a punto de existir, ello tendrá tremendasrepercusiones para la Filosofía de la Ciencia ypara la imagen que el ser humano tenga de símismo. De cualquiera de los dos modos que se vea,se trata de un asunto trascendente para la Cienciadel Conocimiento.

Existen muchas maneras de conocer; se puedeconocer directamente, a través de los sentidos,o indirectamente, por procesos de razonamientoen los cuales la mente se mueve de un conoci-miento a otro por medio de reglas de inferencia.También se puede conocer de manera indirectapor analogía, es decir diciéndonos a nosotros mis-mos que el fenómeno nuevo es como un fenóme-no ya conocido, y prediciendo aspectos de su com-portamiento a partir del modelo. Los modelos quenos sirven para conocer pueden ser hallados en lanaturaleza o pueden ser construidos especialmentepara el propósito cognoscitivo. Por ejemplo, elviejo Platón nos informa al principio de su obramaestra La República que va a tratar de explicarla naturaleza del alma humana usando como mode-lo la estructura de la sociedad: en este caso el mo-delo es preexistente, o tal lo parece. En el caso deun electricista que intenta arreglar un aparato deradio con el que no está familiarizado, él mismoconstruye el modelo, 'dibujado primero como es-quema de circuitos, y para validarlo hará (o imagi-nará) experimentos sobre los resultados de aplicarcorriente a distintos alambres de entrada de esemodelo.

Rev. Filosofía Univ. Costa Rica, XXVI (63, 64),33-40, 1988

34 CLAUDIO GUTIERREZ

¿Qué es entonces un modelo? El caso del mo-delo artificial es el más fácil de analizar. Se diceque el fenómeno que deseamos conocer o explicares una caja negra, un sistema cerrado cuyas inte-rioridades ignoramos (por ejemplo, el aparato deradio sellado cuyos circuitos internos no conoce-mos). Pero todo sistema tiene entradas y salidas(los cables que entran al radio y los sonidos quesalen o dejan de salir de él). El investigador produ-ce hipótesis sobre la estructura interna de la cajanegra. Por ejemplo en la forma de un diagrama deconexiones internas; por medio de experimentoscon la caja negra se determina la !unción de entra-da y salida del aparato, es decir, qué respuesta (enlos canales de salida) produce la presencia o au-sencia de estímulos (en los canales de entrada) so-bre el sistema. Cuando se logra establecer que uncierto diagrama presenta la misma función de en-trada y salida que la caja negra, decimos que la cajanegra y el diagrama son isomórficos, o que hemosencontrado (construido) un modelo del sistemaen cuestión. El modelo, sea encontrado en la na-turaleza o diseñado para el efecto de entender unacaja negra, nos ofrece la explicación del fenómeno;es la "caja transparente" que satisface nuestra curio-sidad sobre el contenido ignorado de la caja negra.

El caso del modelo real encontrado en la natu-raleza, como el que usa Platón en La República, esun poco más complicado. El diagrama que dibujael electricista es claro por defmición (si no fueraclaro, no se estaría usando para ayudar a entenderel fenómeno no conocido); además, existe sola-mente para el propósito de brindar explicación aotra cosa. En cambio, explicar el alma humana -ola mente, la inteligencia- con ayuda de la sociedades un proceso riesgoso, pues a lo mejor la sociedadno es un fenómeno tan transparente como el autorquisiera que nosotros creyéramos. Por otra parte,al usar un fenómeno como modelo de otro quizáhaya aspectos de cada fenómeno con distinto gra-do de inteligibilidad inmediata, de modo que am-bos fenómenos puede que resulten aclarados re-cíprocamente al hacerlos intervenir en una relaciónde isomorfismo. Finalmente, es posible en estoscasos practicar juegos retóricos de muy dudosa ho-nestidad, pero sin duda muy usados en la literatu-ra, incluso por los grandes autores. Por ejemplo,Karl Popper en su libro La Sociedad Abierta y susEnemigos acusa al mismo Platón de hacer precisa-mente eso con su gran metáfora de La República:el verdadero intento de Platón no es aclarar con-ceptos de Filosofía de la mente sino más bienadoctrinar a sus lectores con una particular teoría

política, el totalitarismo; el usar el alma humana,dotada de unidad y totalidad, en relación isomórfi-ea con la sociedad le permite al autor inducir su-brepticiamente en los lectores la idea de que la so-ciedad tiene que ser autocrática para que seasana.

El uso de modelos en Filosofía ha sido muyabundante a través de la historia. Piénsese porejemplo en el uso de los relojes como referenciapara la armonía preestablecida entre las mónadasdel universo postuladas por Leibniz, o en la "ta-bla rasa" postulada por los empiristas inglesescomo punto de referencia para el estado inicialde la inteligencia humana. Pareciera que la Filo-sofía es el lugar natural para emplear modelos,pues no es posible en ella recurrir a experimentos.Pero hay otras ciencias en las que también el mo-delo ha salvado la situación: recuérdense los pla-netas de Kepler que barren áreas iguales en tiem-pos iguales, a la manera de relojes de comporta-miento irregular, o en los complicados modelosmatemáticos de la Meteorología que por no po-der experimentar con el clima 10 inventa y juegacon él dentro de un computador. Hablamos deciencias empíricas donde el experimento es po-sible, y de ciencias especulativas donde no lo es.Así, tanto la Filosofía, como la Astronomía o laMeteorología serían ciencias especulativas, en tan-to que la Química y la Biología son ciencias em-píricas. No obstante, la caminata lunar de Ams-trong -entre otras cosas- ha "empirizado" laAstronomía, y las fotografías por satélite han"empirizado" a la Meteorología. ¿Quedará laFilosofía como la única ciencia especulativa?

Muchos autores consideran a la Epistemolo-gía -la teoría del conocimiento- como la partemás respetable de la Filosofía. Hasta muy entra-do nuestro siglo, la Epistemología ha debido sereminentemente especulativa. Recuérdense las polé-micas sobre la naturaleza del entendimiento hu-mano que llenan la literatura filosófica de los si-glos XVII y XVIII: autores como Hobbes, Locke,Leibniz, Berkley y Hume especulan sobre la natu-raleza de las ideas, si son copias de las impresio-nes externas o las encontramos dentro de la men-te de manera innata; cómo se conectan o asocianunas con otras, etc. iPura especulación, sin posi-bilidad de comprobación empírica alguna! Cons-trucción de modelos, con la desventaja de que nopueden funcionar como funciona la respectiva ca-ja negra, pues son modelos de papel, castillos denaipes simplemente. Pero sucede que a mediadosdel Siglo XX un matemático de genio, como lo

SOCIOLOGIA DE LOS COMPUTADORES 35

fueraLeibniz en su tiempo, a quien no se suelecalificarde filósofo aunque bien lo merece, AlanTuring,concibe un modelo magnífico de la mentehumana,la máquina universal capaz de emular acualquierotra máquina -de la misma clase o declasediferente- con tal de que la proveamos deuna cantidad infinita de cinta de papel y de cual-quiercantidad de tiempo que necesite para la emu-lación.Todavía no saldríamos aquí del campo es-peculativo.Pero unos años más tarde, un grupode tesoneros tecnólogos ingleses y americanosconstruyenuna aproximación cercana a la máqui-na universal: el computador digital de propósitogeneral.No es la máquina universal porque no tie-ne infinita memoria y su velocidad es finita, peropor lo demás es en principio capaz de emular acualquierotra máquina (dentro de sus limitacionesdeespacioy de tiempo).

¿Cómo afecta esto a la Filosofía - a la Episte-mología? ¿Podrá seguir siendo puramente especu-lativa?Ahora resulta que por primera vez en la his-toria el modelo de la mente puede ser construido(por 10 menos por aproximación) y probado expe-rimentalmente. Las limitaciones del computadorpara encarnar a la máquina de Turing no lo inhi-ben para modelar a la mente humana, puestoque después de todo tampoco el cerebro humanotiene capacidades ilimitadas de memoria, y defi-nitivamente su velocidad no es nada importante.En cuanto a la capacidad de emular a otra máqui-na de la misma especie, que tan conspicua es enla mente humana, siempre tratando de represen-tar a otras mentes humanas por medio del conoci-miento interpersonal, es solo potencial en el com-putador, a falta de una programación adecuada.Pero los teoremas de Turing establecen que esaprogramación es en principio posible, y muchosesfuerzosde investigación -en el campo llamadoInteligencia Artificial- demuestran a las clarasque es posible realizar progresos en esa dirección.¿Qué consecuencias tiene esto para el trabajo delfilósofo? Para mí, la respuesta es clara: significaque la teoría del conocimiento ha pasado de ungolpea ser ciencia experimental. De ahora en ade-lante, si alguien propone un modelo de funciona-miento del entendimiento humano tendremos quedecirlecomo sugería ya Leibniz, varios siglos antesde los computadores: "Pongámonos a computar".

Este reto ha dado nacimiento, en el último de-cenio, a la Ciencia Cognoscitiva ("Cognitive Scien-ce") contemporánea. La lingüística, la Psicología,la Neurología, la Filosofía, la Antropología, sehan dado todas cita con la Informática para inau-

gurar una nueva disciplina con un nuevo objetopropio: los seres cognoscentes o conocedores; to-das esas antiguas disciplinas separadas se han uni-do alrededor de una metodología común: la cons-trucción de modelos, que como los antiguos mo-delos especulativos se supone que representan losrasgos fundamentales del entendimiento; peroa diferencia de ellos, pueden ejecutarse como pro-gramas, pueden "correr" o no "correr", y así con-firmar o refutar las teorías que les sirven de base.Aunque suene increíble: ¡ha pasado a ser posiblehacer experimentos epistemológicos!. Todavíamás: la Epistemología puede ahora concebirsecomo un solo gran experimento, la construcciónde la mente artificial. El día que podamos cons-truir un robot que replique por lo menos lejana-mente el comportamiento intelectual del ser hu-mano, ese día sabremos que existe por lo menosuna teoría que explica ese comportamiento, teo-ría que muy probablemente estará en la base deldiseño mismo del cerebro. Mientras llega ese día,cada rendimiento de una máquina artificial que seaisomórfico del rendimiento correspondiente delcerebro, será una explicación suficiente de la capa-cidad especial humana identificada con ese rendi-miento. La Inteligencia Artificial no solo es conce-bible como vertiente tecnológica de la CienciaCognoscitiva: se constituye además como la meto-dología para validar esa misma ciencia.

Encontramos en el desarrollo descrito de Histo-ria de la Ciencia una muestra de un movimientoconvergente entre las ciencias especulativas y lasciencias empíricas. Quiero referirme a otro desa-rrollo, también de carácter convergente, que vieneocurriendo paralelamente. Tradicionalmente sehabla de las "ciencias duras" (las Matemáticas,la Física, la Biología) y las "ciencias suaves"(las Ciencias Sociales básicamente). Voy a soste-ner que esta distinción ha comenzado a perdersentido por obra de la existencia misma de loscomputadores. Pero esta vez no es porque las cien-cias suaves se hayan hecho duras -como las cien-cias especulativas se han transformado en empíri-cas- sino, curiosamente, porque las ciencias durasse están haciendo suaves. Quiero referirme concre-tamente a la Informática, que es la única cienciadura que conozco suficientemente. He explicadoanteriormente cómo los modelos computaciona-les sirven a los practicantes de la Ciencia Cognosci-tiva para explicar los fenómenos intelectuales. Di-seños relativamente sencillos, en la forma de pro-gramas de computación, emulan capacidades inte-lectuales humanas supuestamente muy complejas,

36 CLAUDIO GUTIERREZ

como probar teoremas geométricos, descubrir ver-dades de la aritmética o jugar ajedrez. El carácter"puro" de estos programas participa de la natura-leza de los tipos ideales usados por ejemplo en laFísica para explicar su orden de fenómenos (mo-vimiento en el vacío absoluto, etc.): el modelosimple explica al fenómeno cornpleio.

Estos acontecimientos corresponden a una pri-mera época en el desarrollo de la Informática, di-gamos que es su época clásica, en que todo es pro-porcionado y apolíneo. A esta época correspondenaforismos como "El computador no se equivoca;solo el programador, que es humano, lo hace" -esdecir "erraré humanum est". Es la época del com-putador gigante, muy impresionante en su tamaño,pero fundarnentalrrrente simple en su arquitecturay en su programación: el gran tamaño esconde unpoder muy reducido, se trata de la "calculadorade cuarto" que difiere solo en tamaño de la calcu-ladora de bolsillo. Tales computadoras solo teníanuna fracción del poder de cómputo y de la com-plejidad de arquitectura de muchos de los micro-computadores existentes hoy, por ejemplo el IBMAT con que escribo este artículo. Tengo ante míun volumen de la Revista ACM Computing Surveysdonde se describe lo que será muy pronto la arqui-tectura estandar de la maquinaria de cómputo: elsistema de operación distribuido, es decir, una má-quina virtual cuya unidad funcional frente al usua-rio esconderá una multiplicidad de microprocesa-dores (equivalentes a los actuales computadores)conectados por medio de una red local. Encuentroel artículo (TANENBAUM 85) interesante por ra-zones que no tienen que ver directamente con latécnica informática (no soy un especialista en sis-temas de operación, y mi interés inicial en el ar-tículo se relaciona solamente con el deseo de rnan-tenerme al día sobre el estado general del arte dela computación). La mayor de ellas es que me hareforzado en la convicción de que estamos anteel advenimiento del computador falible, del com-putador que se equivoca por las mismas causasque el cerebro se equivoca, a saber: su misma com-plejidad. "Errare complexum est".

Si un computador consiste de un solo procesa-dor -o unidad lógica- y su respectiva memoria,un fallo del procesador paraliza al computador, nole hace equivocarse. Pero si el computador es unasociedad de computadores conectados por una red(como serán todos los computadores del cercanomañana), si uno de los procesadores deja de fun-cionar, el computador no se para, simplemente sedegrada ... o se equivoca. Toda suerte de equívocos

y malos entendidos pueden suceder. Por ejemplo,uno de los procesadores que debía recibir un men-saje del procesador afectado podría seguir traba-jando como si el procesador dañado hubiera cum-plido su función, pero con información incomple-ta. Si por ejemplo el computador dañado debía en-viar un mensaje indicando haber recibido un men-saje anterior (una transferencia de fondos, tal vez),y ese acuse de recibo nunca llega, el procesadordestinatario puede decidir que el mensaje nuncafue recibido, y enviar de nuevo el mensaje original;esta vez el mensaje lo recibe un procesador dereemplazo que ha sustituido al procesador dañado,pero lo recibe con un atraso que posibilita la ins-cripción de una doble transferencia de fondos ...Además, aun suponiendo que todos los procesa-dores funcionen bien, la computación en parale-lo puede ocasionar extraños efectos, muy difícil-mente evitables; un típico ejemplo es el bloqueorecíproco, cuando cada uno de dos procesadoresse pone a esperar que el otro procesador desocupeun recurso que necesita para finalizar una opera-ción, por ejemplo el acceso a ciertas partes de undisco de almacenamiento de datos o a algún lugarde una memoria compartida. Las consecuenciasde un tal bloqueo, o de otras situaciones pareci-das, son impredecibles, y los resultados de la com-putación global pueden muy bien resultar incorrec-tos.

Ante esta clase de problemas, y algunos otrosque mencionaré en seguida, los científicos de laInformática están comenzando a comportarse deuna manera muy inesperada. Como buenos cientí-ficos, conocedores sistemáticos, aplican la teoríadel método con cuya sucinta descripción comenza-mos este artículo. La solución más prometedoraresulta ser el razonamiento por analogía, y el usode modelos. Ante un fenómeno desconocido, recu-rrimos a fenómenos conocidos que se le parecen,y aplicamos las soluciones viejas a los nuevos pro-blemas. Increíble como suena: los científicos dela Informática han encontrado soluciones a losproblemas que plantea la computación distribui-da en la Sociología, en la Ciencia Administrativa,y hasta en la Ciencia Política. La diferencia entrelas ciencias duras y las ciencias suaves comienza adesaparecer cuando se aplican soluciones de lasciencias sociales a los problemas estrictamentecomputacionales, y comienza a surgir la Sociolo-gía de los Computadores.

Un sistema de operación (o "sistema operati-vo") es un programa fundamental que se ejecutadirectamente por encima de la arquitectura elec-

SOCIOLOGIA DE LOS COMPUTADORES 37

tromecánica del computador y ofrece al usuarioo usuarios de éste toda clase de servicios necesa-rios, como acceso a unidades de almacenamientode datos en discos, acceso a aparatos de impresión,etc. En realidad, es un programa bastante elabora-do,una de cuyas principales responsabilidades esla administración de los recursos de cómputo y suoportuna puesta a disposición del usuario o usua-rios. Por más complicada que la responsabilidadsea, sin embargo, no lo es tanto mientras el proce-sador del computador, la unidad central lógica yde control de las operaciones, sea solo uno. Perocuando, como en los sistemas distribuidos a queme he venido refiriendo, los procesado res son va-rios, entre los cuales se distribuyen distintas opera-dones independientes para ser ejecutadas en para-lelo -lo que indiscutiblemente aumenta la eficien-cia del sistema- las responsabilidades del sistemade operación se complican hasta lo indecible.La fuente principal de los problemas es que mane-jar la adjudicación de recursos sin tener infor-mación exacta sobre el estado global del sistemaes muy difícil. y esa información exacta es prácti-camente imposible de tener si varios procesadorestrabajan simultáneamente a la velocidad de la elec-tricidad enviándose mensajes recíprocamente y al-terando el estado de la memoria compartida pormedio de procesos mutuamente independientes.

Tan no es cierto ahora que los computadoresno se equivocan que el problema de la confiabi-lidad de los resultados ha comenzado a ser untópico de discusión especializada y de investiga-ción muy importante. Es interesante notar que lassoluciones que se han implementado son de inspi-ración netamente social. Cuando algo muy serioestá en juego en la vida social, piénsese en el casode una enfermedad grave o de una crisis nacional,normalmente se recurre al concurso de varios so-lucionadores de problemas que operen sinultánea-mente: en el caso de la enfermedad, llamamos a es-ta solución "junta de médicos"; en el caso de lacrisis nacional, la llamamos "junta de notables";en el caso computacional, la llamamos simplemen-te redundancia. Durante su ejecución, un programase pone a "correr" simultáneamente en un ciertonúmero de máquinas, en paralelo. Cada vez que unproceso termina, las máquinas comparan sus resul-tados; si coinciden, no hay problema; pero si difie-ren, las máquinas recurren a un procedimiento pa-ra dirimir los conflictos muy bien experimentado:las máquinas votan, y la solución que obtenga lamayoría de los votos será el resultado que todaslas máquinas tomen como dato para sus cómputos

en los módulos siguientes. Claramente, se tratade la importación de un método social para la so-lución de problemas informáticos, de acuerdo conla filosofía de los modelos que hemos analizado.

Uno de los problemas más serios que puede en-frentar un sistema de operación distribuido es elde asignar el trabajo requerido entre los distintosprocesadores que forman el sistema. Aquí losdiseñadores han también recurrido a la metodolo-gía de los modelos, y se han encontrado con que elproblema es muy similar al de distribuir el trabajoentre los componentes humanos de una gran orga-nización. La solución estandar en estos casos es or-ganizar a los trabajadores de una manera jerárqui-ca. Consecuentemente, la solución computacionales organizar a los procesadores como se organiza ala gente en la gran corporación, el ejército, launiversidad, o cualquiera otra de las jerarquíasdel mundo social. Algunas máquinas se declara-rán obreros y otras administradores. Por cadagrupo de un cierto número de obreros (o profeso-res) se asignará una máquina administradora (eljefe de departamento) con la tarea de supervisarquién está ocupado y quién no. Si el sistema esgrande, habrá un número inmanejable de jefes dedepartamento; así pues, por cada cierto número dejefes de departamento se seleccionará a una má-quina para hacer de decano. Si hay muchos deca-nos, algunas máquinas serán vicerrector, etc.

Las cuestiones normales en una jerarquía huma-na surgen también en una jerarquía computacio-nal: ¿qué pasa cuando un jefe de departamento, opeor todavía, un vicerrector, deja de funcionar?Una solución es promover a uno de los subordina-dos directos para llenar el puesto vacante. El esco-gimiento podrán hacerlo los subordinados mis-mos, o los iguales del difunto, o -en sistemasmás autocráticos- el jefe del procesador descar-tado. Todas estas son por supuesto decisionespolíticas. Si se quiere evitar tener un solo admi-nistrador (vulnerable) en la cúspide de la jerar-quía, es posible decapitar el sistema y poner enla cumbre a un comité de máquinas en las que re-sida la autoridad suprema. Cuando un miembro delpolitburó funciona mal, los restantes miembrospromueven a alguien del nivel interior como re-puesto.

Puede haber también soluciones anarquistas,donde nadie tiene autoridad final, y lo interesan-te del caso es que tales sistemas pueden funcionar,por lo menos tan bien como los de autoridad cen-tralizada. En esos sistemas todos los problemas seresuelven por intercambio de mensajes y, por su-

38 CLAUDIO GUTIERREZ

puesto, por la disposición de los distintos ele-mentos de asumir las posiciones vacantes cuandoello resulte necesario para el funcionamiento delsistema, tal como ellos lo ven. Por supuesto, pu.e-de haber colisiones, y existen soluciones para re-solver conflictos sin que haya un árbitro de la dis-puta.

Un ejemplo interesante de solución de conflic-tos sin intervención de un árbitro se presenta enla transmisión de mensajes por medio de una redlocal del tipo "athernet". En este tipo de red to-das las estaciones están conectadas por un simplecable coaxial, el mismo que se usa para instalar unaantena de televisión. Cualquier estación puede po-ner en cualquier momento una señal en el cable,y esta señal es oída por todas las otras estaciones.Si dos o más estaciones transmiten al mismo tiem-po, ocurre una colisión, es decir, los mensajes seinterfieren unos a otros y llegan a su destino adul-terados. Como la estación que envía también estáoyendo, al no reconocer su mensaje sabe que hafracasado en su intento y que tiene que reenviarsu mensaje. Esto ocurre pocas veces, por lo que tie-ne un impacto insignificante en el rendimiento dela red. Para reducir la probabilidad de colisiones,la estación que falló espera un ratito antes de vol-ver a transmitir; si se produce una nueva colisión,espera el doble, y así sucesivamente haste teneréxito. Este sistema de resolución de conflictos esperfectamente eficaz, y no difiere mucho del quese usa en la conversación normal, sin director dedebate, para evitar que la gente hable al mismotiempo. Vemos aquí un caso de una buena solu-ción a un problema computacional que se inspiraen un modelo social: la conversación humana nor-mal.

En su libro La Miseria del Historicismo, KarlPopper introduce el concepto del "doble efecto"en la dinámica social. Según este concepto, todoacto social produce dos efectos: uno deseado, quees el propósito del acto, y otro no deseado -peroinevitable- que debe ser soportable para el actor siel acto ha de realizarse en absoluto. De este con-cepto saca Popper su conclusión de Filosofía de laEtica en el sentido de que el objeto último de lamoral es disminuir lo más posible el mal general,en vez de maximizar la felicidad del mayor núme-ro como postulaban los utilitaristas. Uno tendríaque esperar que esta doctrina del doble efecto, tí-pica de las sociedades humanas, se aplicara tam-bién a los sistemas de cómputo desde el momentoen que estos comiencen a ser "sociales"; y asíes, en efecto. Para comprobarlo, analicemos el caso

de un grupo de procesadores que trabajan en para-lelo en la solución de un problema complicado.Así como desde el punto de vista del "hardware"(la parte física de la máquina) el computador sedescompone en procesadores, cada uno indepen-diente de los otros, desde el punto de vista del"software" (la parte intelectual de la máquina)el programa se descompone en procesos indepen-dientes. Para "correr" el programa, diversos pro-cesos tendrán que ejecutarse en otros tantos pro-cesadores; por razón de la misma limitación en elnúmero de procesadores, pero también porque al-gunos procesos son prerrequisito de otros, los pro-cesos irán siendo asignados a los procesado res con-secutivamente; pero, para maximizar la eficiencia,se procurará que un buen número de procesos seejecuten paralelamente.

La decisión estratégica de cómo lograr la mejorasignación de procesos a procesadores y la mejordistribución de la ejecución entre un arreglo se-cuencial y un arreglo paralelo constituye el proble-ma de la asignación de recursos. Si tomamos encuenta que los distintos procesos, por ser parte deun programa integral que soluciona un mismo pro-blema, tienen que comunicarse entre sí para enviarsedatos y resultados, pareciera que los procesos quecomunican frecuentemente deberían ejecutarsesimultáneamente. Así, Ousterhout (OUSTER-HOUT 82) sugiere que los procesos que trabajanjuntos se asignen a diferentes procesadores paraque puedan "correr" en paralelo. Pero otros inves-tigadores no están de acuerdo: Chow y Abraham(CHOW 82), por ejemplo, consideran que los pro-cesos que trabajan juntos deben ponerse en la mis-ma máquina, para reducir los costos de la comuni-cación. Se ve claramente aquí que si pretendemosaumentar la eficiencia por la computación en para-lelo, el sistema se degrada por los requerimientosde la comunicación; pero si queremos disminuiresos requerimientos, el sistema se hace más lentoporque la computación debe hacerse secuencial.Un ejemplo típico del doble efecto de Popper.

Pero todavía hay más: un tercer grupo de inves-tigadores, por ejemplo Stankovik y Sidhu(STANKOVIC 84), consideran que la estrategiafundamental debe ser velar porque ningún proce-sador esté sobrecargado mientras otros permane-cen vacíos. Para estos autores, balancear las car-gas es la estrategia razonable, tomando en cuentaque en sistemas complejos de hecho no sabemosnada sobre los detalles del comportamiento delsistema en cada ejecución concreta. En la ejecu-ción de esta estrategia, se pueden presentar efectos

SOCIOLOGIA DE LOS COMPUTADORES 39

secundarios muy graves, pues hacer migrar un pro-ceso de un procesador a otro implica una serie deacciones muy costosas: hay que interrumpir suejecución, para lo cual deben guardarse muchosítemes de información que permitan volver a po-nerlo en ejecución en el punto en que estaba alllegar al nuevo procesador. En la práctica, lo que serecomienda es más bien dejar los procesos que estáejecutando llegar a su fin en el procesador en quese encuentren, pero crear los nuevos procesos sola-mente en las máquinas menos cargadas; soluciónque recuerda los métodos de desburocratizar unainstitución: no nombrar nuevo personal para llenarlas vacantes que se produzcan, en vez de despedirpersonal. En resumen, los objetivos de maximizarla producción, minimizar el tiempo de respuestas yuniformar las cargas entran en conflicto. Toda so-lución al mismo tiempo implica una transacción,de igual tipo que las transacciones sociales o po-líticas.

Decíamos al comienzo que trabajar con mode-los reales y no simplemente construidos ofrecía lapeculiaridad de que al usar un fenómeno comomodelo de otro, ambos fenómenos podrían resul-tar aclarados recíprocamente. Así, por ejemplo,una vez que los modelos han sido aplicados conéxito a la informática, puede darse un efecto"boomerang" sobre las ciencias humanas, lascuales pasan a beneficiarse de las mismas técni-cas informáticas que ellas mismas inspiraron. Esdecir, la misma técnica, al ser refinada y hecha mu-cho más rigurosa en su versión computacional,puede ser retomada en aplicaciones directamentesociales; con la ventaja adicional de que en todomomento la metodología de los modelos está dis-ponible, y cuando el científico social tiene dudade algún aspecto de la aplicación de la técnicapuede experimentar con los métodos computa-cionalmente. Veo innumerables aplicaciones deesta tesis en las disciplinas sociales, pero muyespecialmente en la Ciencia Administrativa y enla Ciencia Política.

Tornemos algunos de los casos analizados an-tes. Creo que la Sociología, la Ciencia Política yla Administración pueden beneficiarse de los aná-lisis computacionales sobre bloqueos recíprocoso sobre organización, reparación y funcionamien-to de jerarquías. Igualmente, la Sociología y laCiencia Política tienen mucho que aprender de laforma en que se analizan y deciden las transaccio-nes entre objetivos en conflicto para maximizar lasatisfacción o, como diría Popper, minimizar lainsatisfacción. Otra área muy fecunda de reflexión

es la teoría de la redundancia, sobre todo, si secombina con la consideración de su complementa-ria la teoría de la programación estructurada. Enefecto, ciertos problemas por su naturaleza, admi-ten el ser descompuestos en subproblemas, supues-tamente más fáciles de resolver que sus progenito-res; este es el origen de los expertos, tanto en lavida social real como en el reino de la informática.Cuando existe un conocimiento claro sobre unamateria, cuando el problema es un problema bienformado, lo procedente es descomponerlo en susdistintos aspectos y pasar los subproblemas a laconsideración de los respectivos expertos. La fa-mosa comisión especial a la que suelen mandarselos asuntos difíciles es un caso claro de esta meto-dología computacional, por la que el asunto sedivide en sus partes y cada parte la asume el proce-so especializado correspondiente. Contrasta conesto el caso del problema no bien formado, paracuya solución no se puede articular ninguna expe-riencia determinada. En este caso lo que corres-ponde convocar no es al "comité de expertos" ocomisión especial sino más bien a la Junta de No-tables, en la que reina, no la descomposición desaberes especializados, sino la redundancia de sabe-res de sentido común.

Pero quizá la conclusión más importante quese puede sacar de todo esto es el argumento enfavor del anarquismo, o sea, en favor de la tesisde que es posible coordinar el funcionamientosocial sin necesidad de un gobierno. Hemos vistoen detalle un caso de coordinación sin controlcentral, a saber, el de la comunicación libre a tra-vés de una red local. Un procedimiento que tienetanta efectividad en la coordinación "sin jefe"de un sistema computacional distribuido pareceser una buena demostración de que los esquemaspolíticos anarquistas son viables. Estos resultadosy otros parecidos que podría mencionar, me llevana la extrapolación de que tal vez la Humanidad po-dría recoger como mejor fruto de la revolución in-formática la superación de ese enorme mal que laha aquejado desde sus inicios: la dominación arbi-traria e irracional de unos seres humanos sobre losotros que llamamos Gobierno.

REFERENCIAS

Chow 82. T.C.K. Chow y J.A. Abraham,"Load Balancingin Distributed Systems", IEEE Transactions on Soft-wareEngineering SE-8, 1982.

Ousterhout 82. T. K. Ousterhout, "Scheduling Techniquesfor Concurrent Systems". Proceedings of the 3rd In-

40 CLAUDIO GUTIERREZ

temational Conference on Distributed ComputingSystems, New York. IEEE, 1982.

Stankovic 84. J. A. Stankovic y 1. S. Sidhu, "An Adapti-ve Bidding Algorithm for Processes.v." Proceedingsof the 4th. Intemational Conference on DistributedComputing Systems, New York: IEEE, 1984.

Tanenbaum 85. A. S. Tanenbaum y R. van Renesse,ACM Computing Surveys (17,4),1985.

Dr. Claudio GutiérrezEscuela de InformáticaUniversidad de Costa Rica