Y vías alternativas de la Revolución Digital



Descargar 118,67 Kb.
Fecha de conversión04.10.2017
Tamaño118,67 Kb.
"Software y vías alternativas de la Revolución Digital.

Hacia un Sistema Operativo Operacional eStándar (SOOS) de carácter abierto"



César Vélez A., Francisco de Urquijo N., José U. Cruz C.,

CCD-INTTELMEX, CINVESTAV
Resulta imposible imaginar la actual globalización sin la existencia de medios de comunicación para sostenerla y hacerla posible. Toda revolución económica que ha transformado al mundo puede relacionarse con cambios contundentes en los medios de comunicación de la época: las embarcaciones transoceánicas del siglo XV, la máquina de vapor como símbolo de la revolución industrial o las comunicaciones pre-digitales de nuestros días (teléfono, televisión, avión, el entramado operativo del sistema financiero, etc.).

Hoy somos parte de lo que puede representar otra gran revolución. La ya llamada Revolución Digital, tiene la particularidad respecto a revoluciones anteriores de que no sólo transforma de fondo a los sistemas de comunicación, su potencial es capaz de transformar fundamentalmente casi todo lo relacionado con lo humano.

Aun sólo acotando a la Revolución Digital en el tema de las comunicaciones, su potencial transformador es sin parangón en la historia. El cambio de lo digital radica en su esencia intangible, su capacidad de transmitir de manera inmediata información de distinta naturaleza, así como en su crecimiento y expansión tan acelerados, lo que lo hace algo sin equivalencias históricas.

Derivada del desarrollo e integración sin precedentes de la electrónica, las comunicaciones y las ciencias computacionales la Revolución Digital es una oportunidad para expandir las capacidades humanas ya que facilita la evolución de las disciplinas existentes e induce el desarrollo de nuevas áreas de conocimiento como la nanotecnología, la industria del entretenimiento y la bioingeniería, entre muchas otras. Además de contar con un acelerado desarrollo, expansión e impacto en diversas áreas de conocimiento. La característica más representativa de la Revolución Digital es el potencial que tiene para transformar el cómo se crea, el cómo se transfiere y el cómo se utiliza el conocimiento. Esta transformación radical nos exige re-plantear los modelos industriales, económicos, educativos, etc. y a transformar los actuales instrumentos tecnológicos en verdaderas herramientas que nos permitan explotar y propagar los beneficios de esta revolución que está en espera de poderse manifestar plenamente.

Como fue mencionado anteriormente la Revolución Digital ha sido propulsada por tres industrias motoras: la electrónica, las telecomunicaciones y el software. La integración de estos elementos sentó las bases para el nacimiento y expansión de una diversidad de aplicaciones y servicios para los cuales las llamadas Tecnologías de la Información y Comunicaciones (TICs) han sido el vehículo indiscutible.

La expansión continúa, y en un periodo muy reducido de tiempo los beneficios de lo digital ya es accesible por cientos de millones de usuarios. Por ejemplo más del 15% de la población mundial ya tiene acceso a la Internet, sin embargo en regiones como América Latina y África el porcentaje cae a 6.4% y 1.5%, respectivamente [1]. Esta situación nos obliga a identificar qué factores desde un punto de vista técnico-estratégico favorecieron la popularización de las tecnologías a mediados del siglo XX y de que manera su modificación o exclusión han influido en este lamentable estancamiento.

Sin duda existe mucho mejores formas de proceder en tiempos de la Revolución Digital. En una muy breve revisión histórica hacemos evidente el papel fundamental que la estandarización abierta ha representado para la evolución de la electrónica y las telecomunicaciones, pero que no ha sido adoptada todavía en las actividades de software. Con ese antecedente proponemos la adopción de estándares abiertos desde la etapa de modelado del software de tal manera que las capacidades reales de la era digital encuentren canales de salida que a su vez abran paso al desarrollo y aplicación de nuevos modelos educativos, productivos, de prestación de servicios y económicos que faciliten la expansión y explotación más equitativa de los beneficios que esta era digital ofrece.

La Electrónica


Introducido en 1904 por J.A. Fleming el diodo de tubo de vacío fue sin duda el dispositivo electrónico de interés y desarrollo durante la primera mitad del siglo XX. Durante los años subsecuentes el tubo de vacío se convirtió en una industria de primera importancia impulsada fuertemente por la radio y la televisión [Boylestat, 1989: 155-156] [2]. En 1945 buscando mejorar la operación de las computadoras existentes surgió una idea sencilla pero de vital importancia que sellaría la relación entre la electrónica y la forma de hacerlo operar: permitir que en la memoria de una computadora coexistan datos con instrucciones, para entonces poder programar las operaciones de la computadora de manera “suave” y no a través de alambres físicos que interconectaban diferentes secciones. Esta idea conocida como el modelo de von Neumann [Levine, 1997: 7-37] [3] expone una flexibilidad que da origen a la programación y al término software el cual hoy día carga un peso específico muy significativo y clave no sólo en términos técnicos, sino en el impacto social que las TIC pueden representar.

Sin duda alguna el parte-aguas de la electrónica tuvo lugar la tarde del 23 de diciembre de 1947 cuando Walter H. Brattain, John Bardeen, y William Bradford Shockley demostraron el efecto amplificador del primer transistor en los Bell Telephone Laboratories [Boylestat, 1989: 155-156] [2]. Las ventajas de este dispositivo de estado sólido de tres terminales sobre el tubo electrónico fueron evidentes: era más pequeño y ligero, no tenia requerimientos de filamentos o perdidas térmicas; ofrecía una construcción de mayor resistencia y resultaba más eficiente porque el propio dispositivo absorbía menos potencia; instantáneamente estaba listo para utilizarse, sin requerir un periodo de calentamiento; además, eran posibles voltajes de operación más bajos.

La apertura de la tecnología del transistor por parte de AT&T detonó el desarrollo de la electrónica evolucionando como nunca antes lo había hecho tecnología alguna. El transistor irrumpe en los equipos de cómputo en 1958 desplazando a los tubos de vacío y dando paso a lo que ahora se conoce como las computadoras de segunda generación (la primera generación fue la que conformaron los equipos de cómputo que utilizaban tubos de vacío) [Levine, 1997: 7-37]. Fruto de esta época es la proliferación y normalización de los lenguajes de programación. La popularización del FORTRAN, los nacimientos del ALGOL 60 y del COBOL (auspiciado por el Department of Defense), la definición de las especificaciones del PL/1 y la aparición de lenguajes especializados como el APL (Array Processing language), el LISP (procesamiento de listas), etc., son resultados de este período y claros indicadores del potencial que la integración de la electrónica y los mecanismos para controlar su operación representa.

En julio de 1958 en los laboratorios de la Texas Instruments Jack Kilby plantea que es posible integrar en silicio no sólo un transistor, sino un circuito completo [4][5]. Así para mediados de septiembre Kilby tenía ya un modelo funcional el cual daría paso al primer circuito integrado de estado sólido desarrollado por la industria. Al igual que su antecesor, el circuito integrado revolucionó la electrónica y rápidamente incidió en el terreno del cómputo convirtiéndose en pieza central de los equipos de cómputo a mediados de los años 60 dando paso a la tercera generación de computadoras caracterizada no sólo por su evolución en los dispositivos electrónicos sino por la generalización de los sistemas operativos para multiprogramación y la aparición de series de máquinas compatibles entre sí.

En 1965, Gordon Moore tras revisar como se había incrementado el numero de transistores en un circuito integrado en sólo cuatro años predijo que el número de transistores que la industria sería capaz de colocar en un chip de computadora se doblaría cada año o como máximo cada 18 meses. La prensa le dio el nombre de Ley de Moore [Moore, 1965] a ese pronunciamiento. La inquietud de tener más elementos interconectados encapsulados en una sola pastilla llevó, en 1971, al desarrollo del primer microprocesador, el 4004 de Intel [6] diseñado por Ted Hoff, Federico Faggin y Masatoshi Shima [7], el cual contenía en un solo dispositivo los elementos centrales de un equipo de cómputo. Las ventajas fueron evidentes: estos circuitos integrados se pueden fabricar en cantidades enormes, logrando que sus costos sean muy bajos. El circuito integrado de bajo costo al alcance de muchos hizo que los ingenieros y técnicos cambiaran su proceso de diseño al contar con un elemento estandarizado: el hardware (el microprocesador). Ahora los esfuerzos de diseño se debían concentrar en el diseño del programa que controlaría el microprocesador (el software).
M
OPERACIONES POR SEGUNDO POR $1,000 USD
oore acertó en su predicción. La creciente densidad de integración en los microprocesadores ha logrado que con el paso del tiempo la capacidad de procesamiento aumente significativamente y su producción industrial ha facilitado la reducción del costo de fabricación.

Figura 1. Evolución de las capacidades del hardware (ley de Moore)


Según la gráfica mostrada en la tabla 1[Kurzweil, 2001], propuesta por Raymond Kurzweil, mientras en 1900 con $1,000.00 dólares era posible realizar poco más de 1x10-5 operaciones por segundo, hoy con la misma cantidad se pueden realizar más de 1x1010 millones de operaciones por segundo. El costo por realizar operaciones lógicas se ha abatido de manera exponencial.

Las Telecomunicaciones


Se puede decir que las telecomunicaciones como sistema organizado surgen a principios del siglo XIX con el telégrafo óptico utilizado por los gobiernos. En la primera mitad de ese siglo los trabajos de Ampere, Gauss, Laplace, Ohm, Orsted, Volta o Weber apuntalan el primer telégrafo eléctrico de agujas magnéticas con aplicación industrial desarrollado en 1837 en Inglaterra por William F. Cooke y Charles Wheatstone y resultado del perfeccionamiento del aparato experimental originalmente presentado por Pavel L. Schilling en 1832. En 1840 el telégrafo de Cooke y Wheatstone fue a su vez perfeccionado y patentado por Samuel Morse junto con un código que llevaría su nombre [8]. El crecimiento de la telegrafía fue acelerado: Francia (1851) y España (1855) electrifican su sistema de telegrafía óptica [Romeo, 1998] mientras que para 1861 en Estados Unidos la extensión de las líneas telegráficas cubren gran parte del territorio de ese país. En 1865 surge la International Telegraph Union (ITU) como la organización encargada de crear y aprobar los estándares de comunicaciones, ahora convertida en la International Telecommunication Union.

La búsqueda de alternativas a los enlaces físicos como medios de transmisión fue fundamental en el desarrollo de las telecomunicaciones. A partir de los trabajos de Michel Faraday en 1831, James C. Maxwel en 1873 y Heinrich Hertz en 1889, en 1901 Marconi logra el primer enlace radiotelegráfico trasatlántico al transmitir un mensaje en clave morse desde Cornwall, Inglaterra a Saint John, Terranova [8], lo que marcó el inicio de la comunicación inalámbrica. Su relativa independencia de la infraestructura física dio a la radiocomunicación un carácter global prácticamente desde su nacimiento.

En 1876 el teléfono, inicialmente presentado como “mejoras a la telegrafía” [8], encuentra una sociedad que tiene resueltas sus necesidades de comunicación por el telégrafo, por lo que se le ve como un lujo. Sin embargo no tarda en ser identificado como un medio de comunicación sencillo que no requiere de un especialista para su operación [Romeo, 1998].

En Estados Unidos en 1878 entraba en funcionamiento la primera central telefónica en ese país y su evolución fue acelerada impulsada por los intentos de controlar el mercado entre las Western Union Telegraph Company y la Bell Telephone Company. Esta última obtuvo no sólo la patente del teléfono sino el control de la red telefónica de ese país y para manejar la primera red de larga distancia en E.U. en marzo de 1885 crea la American Telephone and Telegraph Company (AT&T) [Martínez, 1993]. Tras décadas de controlar la red estadounidense en 1925, AT&T creó una nueva unidad llamada Laboratorios Telefónicos Bell (Bell Labs), esta unidad de desarrollo e investigación demostró ser exitosa al comenzar proyectos tales como la astronomía radial, el transistor, el sistema operativo Unix, y el lenguaje de programación C, logros no siempre aprovechados por su compañía matriz.

Desde su origen la telefonía deja ver su tendencia a constituirse en una red universal de comunicaciones, desde la creación de la AT&T en 1885 se señalaba el objetivo futuro de enlazar telefónicamente los Estados Unidos con Canadá y México, aspiración alcanzada al rededor de 1930, cuando existía una consolidada red telefónica internacional que diseñaba los primeros pasos de un mercado mundial de las telecomunicaciones que evolucionaba sacando provecho de la red telegráfica internacional [Martínez, 1993].

El desarrollo de teorías como la modulación, la multicanalización, la conmutación de circuitos y la relación señal a ruido permiten sacar mayor provecho de los medios de transmisión existentes y diversificar su operación.

Para garantizar la viabilidad y crecimiento con carácter global de las telecomunicaciones la UIT establece estándares y recomendaciones de normalización de los equipos utilizados en las redes telefónicas a nivel internacional.

Hasta mediados del siglo XX los sistemas de telecomunicaciones transportaban señales eléctricas (telégrafo), voz (teléfono), e imagen (televisión). El desarrollo del cómputo y la interconexión de equipos sumaba un nuevo requerimiento: la información binaria o digital. Pero dada la naturaleza de su señalización (la telefonía era analógica), el cómputo no pudo explotar de manera inmediata esta infraestructura.

En los años 60 el departamento de defensa de los Estados Unidos detecta vulnerable su sistema de comunicaciones en tanto que utilizaba la red telefónica de conmutación de circuitos, lo que hacía posible dejar áreas aisladas ante la eventual falla de uno de los circuitos asignados. Fue así que este departamento a través de su Agencia de Proyectos de Investigación Avanzados (ARPA, por sus siglas en inglés) se propuso desarrollar una red alternativa que permitiera que la información llegara a su destino a pesar de que parte de esta red estuviera fuera de servicio [9][10]. La fragmentación de mensajes y su distribución a través de múltiples caminos propuesta por Paul Baran y la aplicación de la teoría de colas aplicada a las redes de comunicaciones hecha por Leonard Kleinrock, ayudan a materializar la propuesta y representan el inicio operativo-conceptual de la actual Internet.

La construcción de la ARPANET inició en 1969 conformada por cuatro nodos, uno de ellos en la Universidad de California. Su crecimiento y evolución fue impresionante: en 1970 integraba 13 sitios, 18 en 1971, 29 en 1972 y más de 40 en 1973 [11]. El desarrollo de aplicaciones y estándares en torno a esta red favorecieron su continua evolución y la red que hace tan sólo 37 años iniciaba hoy interconecta a casi 900 millones de personas en todo el mundo [1]. El avance y diversificación de las tecnologías ha permitido llegar a tasas de transmisión prácticamente inalcanzables hace apenas una década [12], [13], [14], [Fujitsu Labs, 2001] y hoy día junto con la conectividad móvil prometen, al menos técnicamente, diversificar, extender y simplificar el uso de este recurso.

El surgimiento y acompañamiento de entidades como la IEEE, ISO, ITU-T y la UIT entre otras encargadas de orientar a través de estándares el desarrollo en la materia, ha favorecido la extensión y evolución ordenada de las telecomunicaciones.

Paradigmas como el de George Gilder [Gilder, 1996], modelos y propuestas como las planteadas por Metcalfe [Gilder, 1993] u Odlyzko-Tilly [Odlyzko, 2005 ] y la ya comentada ley de Moore dejan ver como el comportamiento de la relación entre el costo y la capacidad de estas tecnologías las ha hecho no sólo más accesibles sino que ha favorecido su constante desarrollo.


Figura 2.- Evolución del Ancho de Banda (ley de Gilder) y valoración de una red por Metcalfe


Tras décadas de consolidación la electrónica y las telecomunicaciones han conformado una dorsal cuya capacidad y extensión representan oportunidades espectaculares.

El Software


El software, además de ser el encargado de orquestar la operación de la infraestructura para hacerla operativa, representa el vehículo para materializar las ideas y el conocimiento a través de herramientas digitales. Es decir, el software apoyado por las actuales herramientas tecnológicas nos permite no sólo poner a disposición de prácticamente cualquier persona, grupo u organización el conocimiento empaquetado, sino facilitar el uso directo y práctico del conocimiento. Sin darnos cuenta este componente abstracto ya está en todos lados, basta saber que un celular típico contiene 2 millones de líneas de código o que General Motors estima que en el 2010 cada uno de sus autos tendrá 100 millones de líneas de código [Charrette, 2005 42-49].

Sin embargo, aún cuando los dispositivos electrónicos y servicios de telecomunicaciones han tenido una notable penetración social al paso del tiempo, la situación del software, como elemento individual, ha sido otra. A diferencia del comportamiento que históricamente con el hardware y las telecomunicaciones ha tenido la relación costo/beneficio, con el software ésta se ha disparado desproporcionadamente [Charrette, 2005 42-49]. Una de las razones centrales que han condicionado este comportamiento es que durante su evolución no se trabajó en una estandarización adecuada que sirviera de referencia para su constante mejora y desarrollo.

Actualmente se pueden contar más de 2,300 lenguajes de programación completamente desarrollados [15], con cientos de miles de aplicaciones en cada uno de ellos; más de 300 sistemas operativos y decenas de ambientes de usuario, y la gran mayoría, en términos generales, ofreciendo lo mismo. Esta diversidad no necesariamente representa una ventaja [Schwartz, 2004] y tiene un comportamiento muy diferente a la que resulta de desarrollos sobre una plataforma estandarizada y abierta.

Peor que cualquier otra industria, la evolución del software ha estado acompañada de aciertos y errores aún en épocas en las que la industria se considera madura. Partiendo de esta consideración, los más de 60 mil millones de dólares, que directa e indirectamente han costado las fallas y problemas relacionados con el software, tan sólo en Estados Unidos en los últimos 5 años [Charrette, 2005 42-49], podrían parecer parte del camino que se debe recorrer, lo que no es permisible es que esa experiencia no se pueda materializar en términos prácticos para evitar que se repita, por ejemplo, en países emergentes.

El predominio de soluciones cerradas o también llamadas propietarias en el software ha provocado la generación de círculos de dependencia, impide la re-utilización masiva de componentes bloqueando la automatización en la producción, complica la colaboración automática entre organizaciones y motiva la proliferación de soluciones individuales a un alto costo, ya que sólo unas cuantas empresas muy bien financiadas pueden disponer de la variedad de tecnologías para automatizar partes puntuales de sus operaciones. Este comportamiento es diametralmente opuesto al que ha demostrado, con la electrónica y las telecomunicaciones, impulsar el desarrollo de la tecnología y sus industrias asociadas.

Existen varias razones por las que el software no se ha estandarizado correctamente, entre las que resaltan los intereses comerciales divergentes, la falta de información, coordinación y exigencia de los usuarios, la ausencia de políticas informáticas dirigidas a la estandarización, la pobre relación entre industria y academia y la falta de coordinación y liderazgo en los desarrollos de esta última, entre otras. A pesar de lo anterior se ha realizado mucho trabajo que orienta el desarrollo del software hacia un camino abierto y ha demostrado efectividad y viabilidad, el ejemplo más representativo es la generación del sistema operativo Linux, desarrollado por una comunidad colaborativa universal y al día de hoy posicionado como una solución robusta. Sin embargo también en el software abierto o software libre se da el fenómeno de la re-invención de soluciones, algunas, producto de la necesidad de contar con una alternativa abierta a opciones propietarias y otras por el simple interés de personalizar una solución. Ante tal situación es necesario sumarle a los grandes logros del software libre la adopción de estándares abiertos, la incorporación a su desarrollo de las mejores prácticas de clase mundial como modelado, diseño, generación automática de código y arquitecturas organizacionales por mencionar algunas, e integrar más soluciones para usuarios finales. Los esfuerzos para lograrlo y tener una plataforma abierta para desarrollo de software que integre diferentes lenguajes así como elementos propietarios o abiertos, empezaron hace algunos años. El proyecto MONO patrocinado por Novell y coordinado por el mexicano Miguel de Icaza representa la base para una estandarización abierta e incluyente necesaria para que la gente y las organizaciones se abran paso en la cada vez más presente economía digital.

EL CONOCIMIENTO Y LA ERA DIGITAL

El ser humano está constantemente conociendo el mundo, día con día, sin importar su edad, conoce o reconoce su entorno y actúa en consecuencia de tal manera que pueda hacer o hacerse de aquello que le permite cubrir sus necesidades, este proceso podemos considerarlo como permanente en la vida del hombre. Dentro de los medios con que contamos para conocer el mundo sin duda alguna en primer lugar está la percepción que otorgan los sentidos. Si se reflexiona esto un momento podremos darnos cuenta de que no percibimos al mundo de manera directa, sino a través del complejo mecanismo de los sentidos, que le atribuye a toda interpretación características propias.

Cuando el ser humano adquiere el manejo del lenguaje la situación da un giro radical: La percepción del mundo es aún menos directa que antes y en buena medida se convierte en un conjunto de descripciones acerca de éste en términos del lenguaje. Así pues podemos decir que uno de los mecanismos (tal vez el más importante) para conocer el mundo es el de las descripciones que de éste hacemos constantemente y que tales descripciones están construidas mediante el lenguaje.

Una característica primordial de este mecanismo es que podemos transmitir las descripciones a alguien más y esperar que éste las procese y sea capaz de comprender que la descripción emitida hace referencia a una misma realidad percibida por ambos. El proceso mediante el cual se logra esta comprensión extrae, mediante una representación, el contenido original de la descripción, y “llega” de regreso al punto de partida inicial.

A partir de este entendimiento y a través de la representación de descripciones es posible transmitir mediante los diferentes medios con los que contamos (oral, escrito, visual, etc.) sentimientos, ideas, percepciones y experiencia, es decir: conocimiento. Así queda claro que sí se puede representar una descripción y cuando se han tomado medidas para eliminar los errores de comunicación y las posibilidades de ambigüedad, queda establecido un sistema en el que ya no es indispensable que sea directamente una persona la responsable de realizar la representación. Es aquí en donde el potencial que las herramientas digitales imprimen en la generación, distribución y posibilidades de uso directo del conocimiento, se deja ver.

El conocimiento es entonces una característica del ser humano que no requiere necesariamente de una estructura formal para ser generado y la historia deja ver que mientras más conocimiento esté a plena disposición de la sociedad más rápidamente éste se refinará y dará lugar a nuevas formas de crearlo, interpretarlo, distribuirlo y sobre todo, de aplicarlo. Facilitar estos procesos y optimizar su ejecución es lo que la estandarización abierta del software busca a través del encapsulado digital del conocimiento.

Es innegable que los beneficios de las TIC’s se distribuyen de manera desigual por lo que en términos prácticos resulta válida la afirmación de que el auge del cómputo y la informática no representa una revolución en tanto que su espectro de acción ha sido limitado [Petras, 2001 333-342] y que lo digital finalmente ha significado más una continuación de la revolución industrial. Sin embargo seguimos hablando de una Revolución Digital en tanto que su potencial no está extinto y de hecho no ha sido expresado en su totalidad por las razones anteriormente expuestas. Una revolución no depende exclusivamente de la presencia de una tecnología, sino de la orientación, uso y aplicación que a ésta se le dé y en esta era depende de nosotros que la Revolución Digital se consolide como tal. La propuesta es acercarnos al uso óptimo de las TIC’s aplicándolas en la mejora radical del desarrollo y la producción de soluciones digitales, es decir de aquellas soluciones resultado de empaquetar la experiencia en aplicaciones abiertas de software. Lograr que a través del empaquetado del conocimiento se facilite su distribución y uso directo representa sentar las bases para que tengan lugar las transformaciones de amplio espectro que históricamente se relacionan con una revolución.

El SOOS
La integración a esta nueva economía, en la que gran parte de los procesos son automatizables, las distancias se reducen a cero, las fronteras prácticamente desaparecen, los flujos de capital dan la vuelta al mundo en segundos y la información está disponible de manera inmediata, demanda la aplicación inteligente y eficiente de los recursos disponibles. Hacer accesible para cualquier institución o empresa, por pequeña que ésta sea, un instrumento que le permita integrarse a la economía digital es el objetivo de un Sistema Operativo Operacional eStándar (SOOS) el cual busca simplificar al máximo la operación de todo aquello que es estandarizable, favoreciendo así la interacción automática entre organizaciones, reduciendo los costos operativos, aprovechando al máximo la infraestructura disponible y potenciando las capacidades de la organización.

El SOOS como elemento técnico será un conjunto de componentes de software que incorpore de una manera estándar, pero en continua evolución, funciones que permitan: 1.- Facilitar la interoperatividad con otras organizaciones: clientes, usuarios, proveedores, bancos, organismos gubernamentales, etc. 2.- Interactuar con una base de datos relacional abierta, accesible a todas las aplicaciones (Postgresql). 3.- Dar seguimiento a los procesos que realiza una organización (Workflow) y 4.- Visualizar las actividades de la organización en términos de modelos estándares (MDA, UML, XML, ebXML,...).

El impacto que se busca tener con el SOOS fuera de la esfera operativa de la organización incluye: 1.- Conformar una comunidad especializada y altamente competente que sea capaz de ofrecer soluciones reales para las organizaciones en todos los países. 2.- Obtener un conjunto de políticas relativas a procesos y tecnologías organizacionales, cuyo objetivo es establecer estándares y métodos que permitan la obtención de sinergias entre la academia, las empresas, los gobiernos y las comunidades. 3.- Ofrecer el SOOS como un servicio público que simplifique la operación y desarrollo de las empresas y distribuirlo de manera gratuita por diversos medios digitales. 4.- Hacer del SOOS el paquete de software libre que una organización necesita para funcionar lo más eficientemente posible, basado en estándares internacionales abiertos y metodologías (diseño, implementación, codificación, comunicación y documentación, entre otras) que permitan una adaptación fácil a necesidades específicas. 5.- Conformar una comunidad de organizaciones, alerta, activa y sobre todo participativa integrada por individuos, grupos e instituciones con intereses comunes.

Así, a partir de una plataforma operativa estándar y abierta se podrá: a) Vincular de manera efectiva las actividades académicas y las productivas: en tanto que el entorno académico podrá concretar sus investigaciones en aplicaciones directas al convertir sus conocimientos en software que se pueda emplear fuera de la academia. Los universitarios necesitan saber lo que las organizaciones requieren; inversamente, las organizaciones necesitan abastecerse de material humano con conocimiento y experiencia práctica obtenidos durante su formación profesional. b) Sacar provecho de la brecha tecnológica: Salvando varias de las etapas intermedias de desarrollo de software que tecnológicamente ya han sido superadas. c) Establecer un mercado abierto internacional de nuevas tecnologías: Muchos países son un territorio literalmente colonizado por empresas de software propietario, el caso de México es ejemplar. El SOOS permitirá tener la masa crítica necesaria, la vinculación academia-economía, y una exposición a millones de posibles nuevos creadores y usuarios de soluciones abiertas. d) Eliminar la dependencia total de soluciones extranjeras: En países en desarrollo, hay empresas, universidades e instituciones públicas que pueden contribuir a la expansión tecnológica de sus correspondientes economías, pero al estar condicionados al uso de soluciones propietarias la contribución se limita. Por ello se requiere la integración de éxitos documentados y un esfuerzo riguroso de parte de los investigadores y usuarios, para mejorar el nivel de credibilidad que tienen las soluciones abiertas. e) Mejorar directamente la productividad y la eficiencia de las organizaciones al tener una reducción radical de los costos de modernización y de operación: Un SOOS brindará la posibilidad de que las mismas organizaciones desarrollen sus competencias administrativas a través de un aprendizaje continuo y acceso a la mejor tecnología disponible. Ellas mismas contribuirán al desarrollo y mejora continua del SOOS.

ALGUNOS SÍNTOMAS DE LA FALTA DE UN SOOS


Nosotros pensamos que la desigualdad que existe entre personas, grupos, regiones y países respecto al acceso, uso y beneficio de las TIC (también llamada brecha digital [Serrano, 2003]) es, en muchos casos, el reflejo de brechas preexistentes (sociales, culturales, económicas, de oportunidad, etc.) que se redimensionan al contar con nuevos mecanismos que facilitan el almacenamiento, seguimiento, distribución e integración de información.

En un SOOS automatizar procesos no significa convertir un proceso ineficiente en uno digitalmente ineficiente, la aplicación de lo digital en la automatización debe, mínimamente, favorecer la adaptación de modelos anteriores o la generación de nuevos modelos operativos que permitan centrar la atención y esfuerzo de quienes realizan una actividad en la ejecución y mejora de sus tareas centrales.

Lograr que los beneficios que puede representar la era digital alcancen a quienes históricamente han estado al margen de la tecnología es posible y representa transformar la operación para la prestación de servicios básicos, proyectándolos desde una visión producto de una cultura digital. El impulso que puede dar la aplicación racional de nuevas tecnologías, apoyando la prestación de un servicio tan elemental como la salud, en aspectos como la transparencia, la oportunidad de la información, el seguimiento y continuidad en la atención, todos elementos básicos para proveer servicios médicos de calidad, es muy significativo.

En pocas áreas del sector público se hace una integración práctica del recurso universitario en formación tan estructurada y efectiva como en la salud, lamentablemente el aprovechamiento de este valioso recurso es por demás limitado. Cada año más del 84% de las unidades médicas rurales reciben un médico pasante en servicio social (MPSS) como responsable de proveer servicios de salud a la comunidad. El entusiasmo, convicción, conocimiento y deseo de servir de los MPSS son fundamentales para poder realizar el esfuerzo que demanda una correcta prestación de servicios de salud en esas regiones. La cantidad y tipo de información recabada en su quehacer diario aporta mucho más que sólo información relacionada con la salud individual. De primera mano obtienen información geográfica, climática, cultural, económica, social, etc. sin embargo el modelo operativo impuesto en este sector nació con una lógica que puede parecer no sólo ajena a la Revolución Digital, sino contraria a ésta, lo que en muchos casos provoca que, además de no poder enriquecer otras áreas de conocimiento con esa información, el quehacer administrativo para la entrega de información médica, que es 100% automatizable, demande en promedio más del 34% de tiempo efectivo del equipo médico. Reportes que dada su obligatoriedad en poco tiempo llegan a convertirse en la prioridad del equipo de salud. Este modelo operativo no sólo impacta en el tiempo invertido para generar información sino en la calidad de la misma ya que es inconsistente, difícilmente comprobable, no del todo accesible para el equipo de salud, no es reutilizable y no permite compartir información ágilmente con otras dependencias, el desgaste del equipo de salud en este tipo de actividades en muchos casos termina por mermar en poco más de tres meses el ímpetu de los estudiantes, perdiendo el servicio social su atractivo para generaciones venideras lo que dificulta, en lugar de motivar, la vinculación de los estudiantes con la realidad nacional y limita el interés de los estudiantes por asistir a esas comunidades, de por sí, limitadas en servicios y recursos.

UNA DE LAS PROPUESTAS CONCRETAS: EL MODELO CASTOR
La situación de la atención médica básica nos llevó ha proponer, desarrollar y poner en marcha un modelo alternativo de operación cuyo objetivo principal es revalorizar el recurso más valioso con que cuentan los servicios médicos de primer nivel: el recurso humano. El modelo Castor [16] (en alusión al mamífero roedor) ha demostrado en el terreno operativo como sin distraer al equipo de salud de sus actividades centrales (atención a la salud) es posible, con el apoyo de herramientas digitales, no sólo cubrir los requerimientos administrativos de manera automática, veraz y consistente, sino también identificar puntos perfectibles en la normalización establecida para la prestación de los servicios de salud, disponer de manera oportuna de información veraz para conocer el estado de salud de un individuo o de la comunidad en su conjunto, tener elementos para diseñar estrategias de intervención que obedecen a una realidad directa (y no a una delineada a partir de estadísticas en escritorio) y garantizar la re-utilización de la información generada. Así el conocimiento, esfuerzo y ánimo del equipo de salud puede ser canalizado hacia la mejora y extensión de sus actividades centrales, impactando directamente en la calidad de vida de la población la cual, sin tener que adoptar una herramienta tecnológica, se ve beneficiada por su aplicación en un servicio público elemental.

El modelo Castor abarca desde la clínica hasta las oficinas estatales o nacionales del sector salud, según el entorno en que se aplique, e idealmente involucra a todo aquel que esté relacionado con el proceso de generación, captura, integración o consulta de información. La parte operativa del modelo se ejecuta con apoyo del sistema del mismo nombre el cual es 100% abierto y fue desarrollado a partir de la lógica operativa observada en campo, lo cual ha sido un factor fundamental para la aceptación del usuario final, médicos pasantes en este caso.

El modelo Castor, único en su tipo con aplicación comprobada en campo, no sólo se enfoca en la administración de información en salud para facilitar la toma de decisiones de médicos, epidemiólogos, directores y secretarios de salud o en la automatización de procesos administrativos predefinidos, Castor permite y facilita la transición gradual del modelo actual a un modelo digital, lo que permite integrar a la gente a una nueva cultura digital y no confrontarla con ella.

Lejos de representar un sistema que se convierte en un obstáculo para la operación Castor ofrece una flexibilidad que facilita la operación y permite identificar puntos perfectibles tanto del modelo operativo como de la forma de operar, lo que ofrece elementos para la mejora continua en la atención y dadas las características de la herramienta, el enriquecimiento de la misma. Durante prácticamente un año Castor ha operado en campo en 12 unidades médicas rurales, 11 en el estado de Querétaro y una en el estado de México, todas atendidas por MPSS y en 5 centros de asistencia para población en situación de calle en el D.F., sitios en donde se presta atención médica básica. En todos los casos la aceptación del médico, enfermera y trabajador social es total a pesar de que la resistencia de ciertos núcleos, administrativos principalmente, no permiten la explotación del 100% de las bondades del modelo. Así, Castor representa una propuesta inicial de un SOOS para el primer nivel de atención médica, que si bien requiere una mayor integración de mejores prácticas en modelado por ejemplo, está listo para compartir y escalar información a niveles de atención más elevados y que, además, deja ver que la Revolución Digital, entendida como una oportunidad de colaboración y no de competencia, tiene espacio para todos.


BIBLIOGRAFÍA


Boylestat Robert, Nashelsky Louis, [1989] “Electrónica, teoría de circuitos” , cuarta Ed. Prentice Hall
Charrette Robert N.,”Why software Fails” en Spectrum, IEEE, volume 42, number 9, September 2005, pp 42-49. Disponible en: http://www.spectrum.ieee.org/sep05/1685#xplore
Fujitsu Laboratories Ltd. “Fujitsu Successfully demonstrates technolgy enabling Optical Wavelength division Multiplexed Communication Over 74000 Km at 2.4 Terabits/Second” Kawasaki, Japon, Octubre 2001. Disponible en: http://pr.fujitsu.com/en/news/2001/10/24-1.html
Gilder George, “The Gilder Paradigm”, en Wired, Issue 4.12. Dec. 1996. Disponible en: http://www.wired.com/wired/archive//4.12/gilder.html
Gilder George, “Metcalf’s Law and Legacy”. en Forbes ASAP, September 13, 1993. Disponible en: http://www.seas.upenn.edu/~gaj1/metgg.html
Kurzweil Raymond, ”The Law of Accelerating Returns”, en KurzweilAl.net, March 7, 2001. Disponible en: http://www.kurzweilai.net/meme/frame.html?main=/articles/art0134.html
Levine Guillermo [1997]“Estructuras fundamentales de la computación. Los principios”. Ed. McGraw-Hill
Martínez Lorente, G. y Otero Carvajal, L. E.: “El teléfono. El nacimiento de un nuevo medio de comunicación”. Publicado en “Las comunicaciones en la construcción del Estado contemporáneo en España. 1700-1936”, Madrid, Ministerio de Obras Públicas, Transportes y Medio Ambiente, 1993. Disponible en: http://www.ucm.es/info/hcontemp/leoc/telefono.htm
Moore Gordon E., “Cramming more components onto integrated circuits”,en Electronics, Vol. 38, Number 8, April 19 1965. Disponible en: ftp://download.intel.com/research/silicon/moorespaper.pdf
Odlyzko Andrew and Tilly Benjamin ” A refutation of Metcalf’s Law and better estimate for the value of networks and network interconection” Digital Technology Center, University of Minnesota, 2005. Disponible en: http://www.dtc.umn.edu/~odlyzko/doc/networks.html
Romeo López José María, “Evolución de las telecomunicaciones en el mundo”, Colegio Oficial asociación española, II Congreso Nacional de Ingeniería de Telecomunicaciones, Madrid, Junio 1998. Disponible en: http://www.coit.es/foro/estaticas/150/romeovalladolidtexto.pdf
Saxe-Fernandez John, Petras James, Veltmeyer Henry, Núñez Omar; “Globalización, Imperialismo y Clase Social”, Buenos Aires-México, 2001, Grupo Editorial Lumen.
Schwartz Barry; “The Paradox of Choice, Why More is Less”, New York, 2004, Harper Collins Publishers
Serrano Arturo, Martinez Evelio; "La Brecha Digital: Mitos y Realidades",
México, 2003, Editorial UABC

REFRENCIAS


[1] Estadísticas Mundiales del Internet. Disponible en http://www.abcdelinternet.com/stats.htm
[2] Bell Labs: “More than 50 years of the Transistor”. Disponible en: http://www.lucent.com/minds/transistor/pdf/trans-history.pdf
[3] http://en.wikipedia.org/wiki/John_Von_Neumann
[4] Integrated circuits. Disponible en http://www.pbs.org/transistor/background1/events/icinv.html

[5] About Jack. Disponible en http://www.ti.com/corp/docs/kilbyctr/jackstclair.shtml


[6] Microprocessor Quick Reference Guide. Disponible en: http://www.intel.com/pressroom/kits/quickrefyr.htm
[7] http://en.wikipedia.org/wiki/4004
[8] Telecomm telégrafos, “Las Telecomunicaciones en México”. Disponible en: http://www.telecomm.net.mx/corporativo/historia_telegrafo.htm
[9] nodo50.org, “Orígenes y evolución de Internet”. Disponible en: http://www.nodo50.org/manuales/internet/1.htm
[10] Stewart, W. ” Living internet”. Disponible en: http://www.livinginternet.com
[11] Heart, F., McKenzie, A., McQuillian, J., and Walden, D., “ARPANET” Completion Report, Bolt, Beranek and Newman, Burlington, MA, January 4, 1978. Disponible en: http://som.csudh.edu/cis/lpress/history/arpamaps/
[12] International Engieneering Consortium, “Dense Wavelength Division Multilexing (DWDM)”. Disponible en: http://www.iec.org/online/tutorials/dwdm/
[13] Fedor Mitschke, Universidad de Rostock, Alemania. http://www.physik.uni-rostock.de/optik/en/dm_referenzen_en.html

[14] “Fiber Crosses the 10-Trillon-Bit Barrier”. Disponible en: http://www.technologyreview.com/NanoTech/wtr_12315,318,p1.html


[15] Paul Boutin, Brent Hailpern (IBM), Todd Proebsting (Microsoft), Gio Wiederhold (Stanford University) y “The Retrocomputing Museum”. Disponible en: http://www.digibarn.com/collections/posters/tongues/
[16] Vélez César, Calderón Luis A.; “Castor, Modelo alternativo para la atención médica básica”. Disponible en: http://www.centrodeculturadigital.org/30pry/act/Castor/index.html y en http://www.saludlibre.org/castor



pag. de


La base de datos está protegida por derechos de autor ©absta.info 2016
enviar mensaje

    Página principal