Software Libre, innovación y Big Data

Todo comenzó con un conflicto con los drivers de una impresora, en ese momento Richard Stallman hizo florecer con mucha razón el Software Libre, el futuro de la informática que cambiará también el pensamiento social. No es secreto alguno que más allá de las libertades que nos otorga el Software Libre, del modelo de desarrollo y la filosofía de trabajo colaborativa promovida por su movimiento, que se basa en crear tecnologías, principalmente productos de software, pero también de hardware, que a su vez puedan ser usados, modificados y distribuidos libremente para todo el mundo, se encuentra un ámbito de rebeldía y evolución por parte de la mayoría de sus integrantes contra el SISTEMA que opera no el ámbito socio-económico y político. En mi entender, más superador que otros pensamientos políticos (comunismo, socialismo, capitalismo) que proponen la teoría de lucha y competencia permanente.

En nuestro mundo actual, que se basa en el monetarismo, el lucro económico y político, que ha evolucionado de manera cada vez más rápida y compleja, se hace prácticamente imposible que una sola organización publica o privada, de manera individual, sea capaz de monopolizar el talento, la innovación y sus resultados.

Es por estas razones que esa vieja idea y mecanismo en la que una organización ejecutaba su modelo de desarrollo de software o tecnología centralizando todos los aspectos de sus productos tecnológicos e imponiendo estándares que duraban muy poco, ya no es funcional en absoluto, no optima, viable y se encuentra en obsolescencia permanente. El futuro de la tecnología y de la economía también se encuentra en la colaboración, es precisamente en lo que se basa el Software Libre y la Economía Basada En Recursos. Si alguien piensa que esto no es así, fíjese como la tecnología va años luz más adelante que la regulación de los organismos gubernamentales. Es la tecnología la que termina diciendo a los organismos y empresas que camino deben tomar.

¿Que es el Software Libre entonces?

En un principio podemos decir que el Software Libre es una de las tecnologías y herramientas científicas que desde su fundación hasta el día de hoy ha causado un dolor de cabeza al sistema, formando grandes controversias. Desde hace varias décadas propone y hace desde su filosofía de trabajo un nuevo modo en que todo lo creado y ofrecido desde el Software Libre se hace de forma muy distinta a lo que el sistema dicta o el “status quo” propone imperantemente de lo comercial, empresarial o estatal, totalmente opuesto al modo tradicional donde lo que prevalece es el lucro económico, político bajo las reglás de la propiedad privada o licencia privativa, patentes, posesividad, y la máxima rentabilidad económica de un producto.

Lo más importante para el movimiento del Software Libre, es la difusión y el entendimiento de su filosofía que lleva a crear, compartir, colaborar y poner a disponibilidad a todo el mundo, más allá del mero hecho de hacer y dar. Es vital la precisión informativa al público en general, sobre lo que de verdad ofrece el Software Libre, para que el mismo pueda decidir apropiadamente si desea usarlo o no, digamos que es más científico que lo propuesto por el software privativo que en ver de informar al usuario todos los aspectos de su software, oculta información y la esconde. El Software Libre es sumamente transparente y pone toda la información a disposición del usuario, para que el mismo pueda decidir apropiadamente si desea usarlo, como le conviene usarlo, si desea compartir y difundir, etc. Esta nueva filosofía de hacer las cosas para el bien común de la humanidad, un punto compartido con la Economía Basada En Recursos.

Entonces ¿Como podemos definir sencillamente al Software Libre:

“El Software Libre es aquel que, tras su adquisición, puede ser utilizado, copiado, analizado, modificado y redistribuido por los usuarios con total libertad”.

Software Libre y Patentes

Un dato importante a tener en cuenta es que el Software Libre no es un producto infractor o que viola las regulaciones o normativas legales existentes, no infringe o viola las patentes o los derechos de autor. El argumento que el Software Libre viola la ley de patentes o derechos de autor no tiene ninguna base, ya que los desarrolladores de Software Libre no utilizan el Software Privativo para desarrollar sus productos, tampoco al código fuente, por lo tanto ni siquiera se acerca a sus patentes. Muy por el contrario, es el Software Privativo el que debió recurrir más de una vez al código del Software Libre para perfeccionar sus programas.

Ninguno de los desarrolladores, ni tampoco sus usuarios pierden sus derechos como autor de sus creaciones de Software Libre, si liberan la utilización de lo que han creado conforme a los principios de esta tecnología. El buen Software Libre nunca se basa en modificaciones de códigos fuentes privados, no le hace falta, ya que puede acceder a cientos de bibliotecas libres que se actualizan con más frecuencia que las de software privativo, por que siempre esta lejos de cualquier demanda relacionada con loc vicios o paraguas legales. Mas aun en los tiempos que corren, donde el Software Libre se ha expandido enormemente hasta lograr ser una biblioteca recurrente hasta para los desarrolladores de software privativo.

Además, es importante aclararle a los posibles confundidos sobre que un programa de Software Libre puede ser pirateado o puede tener licencias caducadas, que esto no es posible, ya que el mismo basa todo su desarrollo en código libre, independiente, y no comercial, es decir, que aprovecha lo que ya existe sobre si misma para trabajar en nuevas versiones mejoradas y actualizadas a los tiempos que corren.

Un buen desarrollador de Software Libre nunca roba o toma prestado código ajeno sin el respectivo permiso de su creador original (autor) o retribución de los créditos respectivos al mismo, ni espera a que licencia alguna venza para aprovecharse de ella, dado que los mismos ya disponen de suficientes códigos abiertos para contribuir con sus aportaciones.

Innovación y Software Libre

Actualmente y en el futuro de la tecnología tiene en la colaboración o el trabajo colaborativo un gran pilar donde apoyarse, este es el mayor principio y es la base del Software Libre. Cuando hablamos de colaboración, hablamos a su vez de innovación, porque toda colaboración, ayuda y proposición de terceros abre la puerta a nuevas innovaciones productos de nuevas ideas fusionándose en formas nunca antes vistas. No estamos diciendo nada nuevo, el software privativo no se hubiera mantenido tanto a flote sin el reporte de los errores de sus usuarios. De este proceso de colaboración e innovación dentro del software libre se han dado o surgido propuestas de gran importancia para todos, incluso ha fijado estándares al software privativo como el OpenGL. Una de las propuesta es la conocida como “Innovación abierta”. Ahora nos referimos a ella.

La Innovación Abierta

La innovación abierta es un concepto creado por el profesor estadounidense Henry Chesbrugh, teórico organizacional, y utilizado por primera vez en su libro llamado “Open Innovation: The New Imperative for Creating and Profiting from Technology”, que publico en el 2003, pero ya había elementos antes que podríamos encuadrarlos como Innovación Abierta, por ejemplo Internet. En este mencionado libreo Henry plasmo ideas acerca de cómo la tecnología debe ser gestionada y explotada. Ideas que han sido muy influyente y han traído un impacto público positivo sobre el Software Libre y el Código Abierto, al punto de lograr cambiar la mentalidad a CEO’s de algunas empresas como Google.

La innovación abierta es en pocas palabras aquella que hace que las empresas busquen, adopten y promuevan nuevas tecnologías que sobrepasen el ámbito de su propia organización en conjunto con socios externos, pudiendo ser estos otras organizaciones, desarrolladores o usuarios. Este nuevo modo de hacer las cosas hace posible la conjunción del conocimiento interno y externo que hace vida dentro de un holón u organización, para lograr consumar proyectos estratégicos de investigación y desarrollo y así mejorar su eficiencia y eficacia a su modelo u objetivo.

Este sistema permite un mayor reparto de los riesgos y beneficios mutuos con los colaboradores externos, ademas favorece una mayor participación de todos los aportantes en la misma. Esto nos deja en claro que la innovación abierta es un gran avance en materia organizacional y de trabajo que basa sus preceptos en el mundo del desarrollo del Software Libre. El Big Data es una herramienta que nació gracias a este nuevo concepto.

El famoso Big Data

Big Data, es un concepto tecnológico que se relaciona con el manejo de grandes volúmenes de datos, estructurados y no estructurados, que actualmente manejan los grandes sectores organizacionales, tecnológicos, científicos y hasta gubernamentales.

Pero debemos aclarar algunos puntos primero cuando hablamos de Big Data, no es realmente la cantidad de datos lo que es importante, sino lo que las organizaciones hacen con dichos datos. Ya que la tecnología Big Data, puede analizar los datos para obtener más información e ideas que conduzcan a mejores tomas de decisiones, movimientos y estrategias. En este aspecto, el Software Libre y Código Abierto, es el que más avances aporto a dicha tecnología, ya que muchas aplicaciones desarrolladas han sido implementadas en este formato de desarrollo bajo los estándares de Innovación Abierta.

El concepto del Big Data

Para uno de los grandes del Software y el desarrollo tecnológico, IBM, el Big Data es una:

“Tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi-estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis”.

Objetivo

La tecnología nació con el objetivo de cubrir todo el espectro posible del análisis de datos, es decir, cubrir tanto lo existente y resuelto con tecnologías actuales y diferentes, como lo no resuelto por las tecnologías existentes, como lo es el almacenamiento y la gestión de los grandes volúmenes de datos que poseen características muy concretas.

Los Datos

El Bid Data maneja volúmenes de datos que suelen ser definidos por las características siguientes:

  • Volumen: Tamaño de los datos provenientes de múltiples fuentes.
  • Velocidad: Rapidez con la que llegan y se gestionan los datos provenientes de múltiples fuentes.
  • Variedad: Formato de los datos analizados provenientes de múltiples fuentes.

Son volúmenes de datos que pueden estar compuestos por datos estructurados, semis-estructurados y no estructurados, centralizados, descentralizados o redistribuidos para ser manejados en cantidades enormes que suelen estar descriptos en grandes cantidades como: Tera, Peta, Exa, entre otros.

Estos tipos de datos pueden provenir de todos tipos de fuentes, Internet y sus distintos software y servidores (Redes Sociales, Sitios Webs, Base de datos, Nubes). Equipos (Moviles, Reproductores multimedia, Sistemas de Geolocalización, Sensores digitales, Cámaras urbanas, SmartTV, Computadoras hogareñas, entre otros) y Organizaciones (Privadas y Publicas, Comunitarias, Comerciales, Gubernamentales).

La importancia del Big Data

Lo que hace del Big Data una tecnología tan útil, es el hecho de que proporciona información valiosa que muchas veces sirve como una respuesta precisa y confiable a preguntas que ni siquiera se habían formulado para determinadas situaciones o problemas. Su utilidad muchas veces se pueden ver y aplicar sobre aspectos que suelen surgir de la misma información recolectada y gestionada con mayor precisión que otros métodos, como las estadísticas callejeras.

El procesamiento de grandes volúmenes de información, facilita que los datos procesados puedan ser estructurados o probados de la manera más apropiada o especifica, que se considere adecuada por parte de su administrador. Esto permite que las organizaciones que usan el Big Data, sean capaces de identificar los problemas de una forma más comprensible, descriptiva y puntual que otros métodos. Después del análisis previo de la información, los sistemas pueden tomar decisiones mucho más efectivas y eficaces, con muy poco o casi nada de margenes de error. Además, les permite eliminar las áreas problemáticas antes de que los problemas los rebasen, haciendo que se pierdan recursos y beneficios.

Las ventajas

El Big Data ayuda a las organizaciones a gestionar mucho mejor sus datos y recursos, además que se ha utilizado para evitar grandes problemas, esto redunda en la identificación de nuevas oportunidades positivas, productivas, en pro de los miembros (Usuarios o Ciudadanos). A su vez, conduce a acciones más inteligentes y eficientes, ahorro de horas de labor, recursos y otros, que suele traducirse en felicidad para los involucrados y mayor bienestar a los seres humanos si es utilizado con inteligencia y no para hacer maldades. Cuando el Big Data es usado se suele agregar valor a las actividades realizadas en varios aspectos:

  • Reducción del costo: En el almacenamiento y gestión de grandes volúmenes de datos.
  • Reducción de tiempo: Más eficiencia y eficacia en la toma de decisiones.
  • Reducción de recursos: Se utilizan menos recursos que con otros métodos.
  • Servicios más efectivos y mejores productos y servicios: Con la capacidad de medir y prever las necesidades y problemas de los usuarios se aumenta la satisfacción de los mismos. Además que con el Big Data se han mejorado varios productos para hacerlos más eficientes, como por ejemplo equipos de energía solar, eólica, mareo motriz, núcleos de computadoras, etc.

Beneficios

El Big Data bien empleado es capaz muchas veces hasta de determinar las causas de origen de fallos, problemas y defectos casi en tiempo real, como también encontrar las soluciones más efectivas. Pero hay que tomar en cuenta que la tecnologia Big Data no es una panacea por si sola. No obstante mezclada con la Inteligencia Artificial y periféricos externos como robots, drones, etc., podemos imaginarnos otra dimensión e incluso otra civilización diferente. Por lo que citando a otro grande de la tecnología como es Oracle, se puede añadir que:

“Identificar el valor del big data no pasa solo por analizarlo (que es ya una ventaja en sí misma). Se trata de todo un proceso de descubrimiento que requiere que los analistas, desarrolladores, usuarios y figuras importantes se planteen las preguntas correctas, identifiquen patrones, tomen decisiones informadas y predigan comportamientos”.

El Software Libre y de Código Abierto relacionado con el Big Data

Entre las aplicaciones de Software Libre y Código Abierto que valen la pena mencionar para su investigación, prueba e implementación están:

Apache Hadoop: Plataforma de código abierto compuesta por Hadoop Distributed File System (HDFS), Hadoop MapReduce y Hadoop Common.

Avro: Proyecto de Apache que provee servicios de serialización.

Cassandra: Base de datos no relacional distribuida y basada en un modelo de almacenamiento de <clave-valor>, desarrollada en Java.

Chukwa: Software diseñado para la colección y análisis a gran escala de registros de eventos (logs).

Flume: Software cuya tarea principal es dirigir los datos de una fuente hacia alguna otra localidad.

Hbase: Base de Datos columnar (column-oriented database) que se ejecuta en HDFS.

Hive: Infraestructura de “Data Warehouse” que facilita la administración de grandes volúmenes de datos que se encuentran almacenados en un ambiente distribuido.

Jaql: Lenguaje funcional y declarativo que permite la explotación de datos en formato JSON diseñado para procesar grandes volúmenes de información.

Lucene: Software que provee de librerías para la indexación y búsqueda sobre texto.

Oozie: Proyecto de código abierto que simplifica los flujos de trabajo y la coordinación entre cada uno de los procesos.

Pig: Software que permitir a los usuarios de Hadoop enfocarse más en analizar todos los conjuntos de datos y dedicar menos tiempo en construir los programas MapReduce.

ZooKeeper: Infraestructura centralizada y de servicios que puede ser utilizada por aplicaciones para asegurarse de que los procesos a través de un clúster sean serializados o sincronizados.

Elasticsearch: Motor de búsqueda y análisis basado en texto completo.

MongoDB: Base de datos NoSQL basada en el modelo de datos de documentos.

CouchDB: Base de datos NoSQL de código abierto basada en estándares comunes para facilitar la accesibilidad y compatibilidad web con una diversidad.

Solr: Motor de búsqueda de código abierto basado en la biblioteca Java del proyecto Lucene.

MySql: Una de las más famosas bases de datos estilo SQL del mundo, utilizada en Páginas Web dinámicas y otros proyectos de Internet.

Conclusiones

En cuanto a innovación se refiere las soluciones o modelos planteados a partir de Software Libre no son poca cosa, de hecho han innovado más de un estándar tecnológico actual como el sistema operativo Android, Servidores, sistema operativo para autos, etc. Ya que el Software Libre permite el (re)aprovechamiento de los aportes creados o por crearse surgidos por las comunidades de usuarios (desarrolladores/clientes/proveedores), y aumenta no solo la disponibilidad de productos y soluciones disponibles en el mundo tan cambiante, sino que también la posibilidad de crear nuevos modelos socio-económicos o adoptar más eficientemente los existentes en la época. Aunque si hay algo que ha demostrado la tecnología es que el sistema socio-económico actual ya produce deficiencia y se encuentra en obsolescencia.

El Software Libre ha sido la pieza clave que ha incentivado y despertado la innovación, se encuentra en todos los campos tecnológicos y detrás de cada nuevo dispositivo creado, ya que permite pensalo en términos de crear nuevas cosas de manera abierta, transparente y compartido, elaborar nuevas formas de labor y relacionarse con los demás, además de organizar, gestionar y ejecutar la información disponible diariamente o para construir un nuevo modelo flexible de aprendizaje y educación. En una palabra, la próxima civilización seguramente tendrá como herramienta técnica, científica y base a la filosofía del Software Libre o derivados. Es la tecnología y la educación la que moldea el comportamiento humano, y este último, al entorno comunitario.

Nuestra época presente se encuentra ahogada en una elevada y creciente masa de datos, que tienen mucho que decir en su conjunto, más que en lo individual. Muchos de estos datos son desperdiciados y mal usados por el ser humano. Por eso, el uso de la tecnología Big Data en el presente y en el futuro es el mayor logro que se puede utilizar para ayudar a la comunidad y a la humanidad entera para conseguir su bienestar, a descubrir infinidad de cosas, inventos, sucesos, soluciones a problemas, que podrían haber tomado muchos años en descubrirse por si mismos sin el uso de esta tecnología.

El Big Data y sus distintas herramientas proporcionan la velocidad de análisis suficientes para analizar resultados obtenidos rápidamente y re-elaborarlos las ves que sea necesario, en un corto tiempo, para encontrar el verdadero o más cercano valor posible al que se tratando de llegar. Incluso esta tecnología y su análisis ha servido para salvar vidas humanas y especies de animales que de otra forma no hubieran tenido oportunidades.

Combinados con la Economía Basada en Recursos que propone Proyecto Venus, el Big Data se transforma en una herramienta esencial para lograr los objetivos de una civilización sumamente avanzada, sustentable con el ambiente y para el bienestar común de todos los seres humanos. Precisamente, los Centros de Correlación de Datos que Proyecto Venus propone instalar en cada ciudad circular para la toma de decisiones, son grandes servidores de Big Data, que estarán enlazados a un gran sistema neuronal artificial (red de nodos) compuestos por periféricos externos tales como sensores, cámaras, lectores, robots, drones, etc. A diferencia de las demás proposiciones técnicas y socioeconómicas, el Software Libre y la Economía Basada En Recursos fueron creadas para el beneficio de todos los seres humanos, no para el lucro político y económico de unos pocos.

La tercera era de la informática, la computación cognitiva

El futuro está cada vez más cerca y las tecnologías del presente se preparan para afrontarlo. Llega la era de la computación cognitiva, la tercera gran era que ha vivido el desarrollo de la informática, según la califican los expertos.

Los conceptos de nube, Big Data, inteligencia artificial, aprendizaje automático o aprendizaje profundo se unen para dar cabida a un paradigma más amplio, en el que no solo importa que la tecnología nos ayude a realizar nuestro trabajo, sino en nuestro desarrollo personal. Y el secreto de todo está en los datos.

Libros, revistas, blogs, artículos, tuits y mensajes, pero también imágenes, audio y vídeo. La clase de datos que la humanidad codifica en lenguaje e información no estructurada es cada vez mayor y, de hecho, actualmente producimos tal cantidad que nuestra capacidad para utilizarla de manera práctica se ha visto superada. En el caso del sector privado y publico, se calcula que apenas se procesa con éxito en torno al 12% de los datos recogidos.

Es decir, todas las ventajas que las organizaciones obtienen en la actualidad con el estudio de sus datos, es ínfima en comparación con la que tendrían de poder ‘desbloquear’ ese 88% de información restante, «invisible» para los sistemas tradicionales. La solución, por supuesto, son las máquinas; sin embargo, la potencia de cálculo tampoco es suficiente por sí sola.

Con tecnologías como el Machine Learning o aprendizaje automático, el Deep Learning o aprendizaje profundo y la inteligencia artificial, estamos desarrollando sistemas capaces de extraer el valor de toda la información que se nos escapa. Así es como se cierra un círculo cuyo siguiente paso es, en efecto, la computación cognitiva: sistemas informáticos avanzados capaces de resolver problemas sin necesidad de intervención humana, pero no para reemplazar a esta.

El objetivo de la computación cognitiva, es crear sistemas que, en lugar de ser programados para un propósito determinado, aprendan a escala, razonen e interactúen con los humanos de forma natural, pero no con el criterio de la inteligencia artificial. El objetivo de fondo es «extender la inteligencia humana y profundizar el conocimiento, ayudando a todos a pensar mejor y tomar decisiones informadas».

Los atributos de un sistema cognitivo comprenden:

  • Entender los datos
  • Desarrollar hipótesis, argumentos y recomendaciones con los datos recogidos
  • Acumular datos e interacciones de manera continuada
  • Interactuar con los humanos de manera natural

El desafío que plantea la computación cognitiva no es pequeño, pero las posibilidades como catalizador de la innovación que promete tampoco lo son, para todos y cada uno de los procesos de negocio de cualquier organización: optimización y mejora en la experiencia de cualquier proceso, identificación de ideas sin explotar, nuevos modelos de economía, medición efectiva del retorno de la inversión, mejor soporte y autoservicio, fraude y gestión de riesgos, investigación y descubrimiento…

Organización De Unión Planetaria

© 2020 Organización De Unión Planetaria.