miércoles, 16 de abril de 2014
viernes, 4 de abril de 2014
Aunque la estimación es más un arte que una ciencia, es una actividad importante que no debe llevarse a cabo de forma descuidada. Existen técnicas útiles para la estimación de costes y de tiempos. Y dado que la estimación es la base de todas las demás actividades de planificación del proyecto y sirve como una guía para una buena ingeniería del software, no es en absoluto aconsejable embarcarse sin ella.
El objetivo de la Estimación es predecir las variables involucradas en el proyecto con cierto grado de certeza. Se trata de aportar una predicción de algún indicador importante para la gestión de proyectos de software: tiempo, esfuerzo, cantidad de defectos esperados, entre otros, sin dejar de tener en cuenta que la incertidumbre y el riesgo son elementos inherentes.
En la actualidad son muchos los proyectos que fracasan e incumplen sus plazos de entrega. Según el The Standish Group en su publicación Chaos Report 2009, determinó que el 24% de los proyectos informáticos fueron cancelados, solo el 32 % terminaron a tiempo y dentro del presupuesto y el 44% de los proyectos de software fueron concluidos después de la fecha estimada.
Son muchos los métodos de estimación del esfuerzo que existen en la actualidad: SLIM, COCOMO II, Juicio Experto, Analogía, algunos basados en técnicas estadísticas e Inteligencia Artificial que se basan en datos históricos para inferir el esfuerzo de nuevos proyectos.
El objetivo de este trabajo es describir el método de estimación basado en Puntos de Casos de Uso a través de un caso práctico y mostrar las ventajas y desventajas del mismo.
El método escogido se acopla con la metodología más usada hasta nuestros días, la metodología RUP (Proceso Unificado de Rational), esta metodología se basa en la identificación de los casos de uso, encargados de dirigir el proceso y la técnica escogida toma como punto de partida estos elementos.
DESARROLLO
Planificación basada en casos de uso
Este método de estimación de proyectos de software fue desarrollado en 1993 por Gustav Karner de Rational Software y está basado en una metodología orientada a objetos, dándole el nombre de "estimación de esfuerzos con casos de uso". Surgió como una mejora al método de puntos de función pero basando las estimaciones en el modelo de casos de uso, producto del análisis de requerimientos. Según su autor, la funcionalidad vista por el usuario (modelo de casos de uso) es la base para estimar el tamaño del software. [2]
Un caso de uso por sí solo no permite efectuar una estimación de esfuerzos ni de tiempos, los casos de uso son solamente herramientas para el análisis. La idea fundamental es predecir el tamaño del software a partir de los requerimientos de los casos de uso.
El objetivo fundamental de esta técnica es: Estimar las horas necesarias para ejecutar un conjunto de casos de uso. Es decir, necesitamos predecir cuánto tiempo llevará el desarrollo de software y cuántas personas se requieren para realizarlo. Para ello, es necesario cuantificar la complejidad del sistema y el tiempo necesario para producir una unidad de complejidad.
En etapas tempranas del ciclo de vida, se identifican los Actores y los Casos de Uso del sistema, y se documenta cada uno de ellos mediante una breve descripción. Aplicando el Análisis de Puntos de Función a estos Casos de Uso, se podrá obtener una estimación grosera del tamaño y a partir de ella del esfuerzo. Esta estimación es bastante imprecisa debido principalmente a la escasa información que se tiene sobre el software al principio de un proyecto, pero permitirá obtener una idea del esfuerzo necesario para llevar adelante el mismo, y podrá ser refinada a medida que se obtenga más.
El ejemplo práctico a través del cual se describirá el método consiste en una aplicación Web para la gestión de información telefónica, de reportes de averías, y de estadísticas de los estados de los teléfonos de un Centro de Educación Superior (CES). Actualmente este proceso se realiza manualmente, provocando dificultades en la organización y control de la información referente a los equipos telefónicos y a sus respectivos usuarios. La aplicación es desarrollada en la plataforma .Net, con lenguaje C#. A continuación se presentan los actores y casos de uso identificados.
Técnicas de Estimación
Cuando se planifica un proyecto se tienen que obtener estimaciones del esfuerzo humano requerido, de la duración cronológica del proyecto y del costo.
En la mayoría de los casos las estimaciones se hacen valiéndose de la experiencia pasada como única guía. Aunque en algunos casos puede que la experiencia no sea suficiente.
Técnicas de Estimación de Costo y Esfuerzo
Estas técnicas de estimación son una forma de resolución de problemas en donde, en la mayoría de los casos, el problema a resolver es demasiado complejo para considerarlo como una sola parte. Por esta razón, descomponemos el problema, recaracterizándolo como un conjunto de pequeños problemas.
Líneas de Código y Puntos de Función.
Los datos de líneas de código (LDC) y los puntos de función (PF) se emplean de dos formas durante la estimación del proyecto de software:
- Variables de estimación, utilizadas para calibrar cada elemento del software.
- Métricas de base, recogidas de anteriores proyectos utilizadas junto con las variables de estimación para desarrollar proyecciones de costo y esfuerzo.
Estas técnicas son diferentes pero tienen características comunes. El planificador del proyecto comienza con una declaración restringida del ámbito del software y, a partir de esa declaración, intenta descomponer el software en pequeñas subfunciones que pueden ser estimadas individualmente. Entonces, estima las LDC o PF (la variable de estimación) para cada subfunción. Luego, aplica las métricas básicas de productividad a la variable de estimación apropiada y deriva el costo y el esfuerzo para la subfunción. Combinando las estimaciones de las subfunciones se produce la estimación total para el proyecto entero.
Difieren en el nivel de detalle que requiere la descomposición. Cuando se utiliza LDC como variable de estimación, la descomposición funcional es absolutamente esencial y, a menudo, se lleva hasta considerables niveles de detalle. Debido a que los datos requeridos para estimar los Puntos de Función son más macroscópicos, en nivel de descomposición al que se llega cuando PF es la variable de estimación es considerablemente menos detallado. También, debe de tenerse en cuenta que mientras que LDC se estima directamente, PF se determina indirectamente mediante la estimación del número de entradas, salidas, archivos de datos, peticiones e interfaces externas, entre otras.
Independientemente de la variable de estimación que use, el planificador del proyecto, normalmente, proporciona un rango de valores para cada función descompuesta. A partir de los datos históricos o (cuando todo lo demás falla) usando su intuición, el planificador estima los valores optimista, más probable y pesimista de LDC o de PF para cada función. Cuando lo que se especifica es un rango de valores, implícitamente se proporciona una indicación del grado de incertidumbre.
Entonces, se calcula el valor esperado de LDC o de PF. El valor esperado para la variable de estimación, E, se obtiene como una medida ponderada de las estimaciones LDC o PF óptima (a), más probable (m) y pesimista (b).
Por ejemplo:
E = a + 4m + b
6
da una mayor credibilidad a la estimación más probable y sigue una distribución de probabilidad beta.
Técnicas Delfi.
Las técnicas delfi fueron desarrolladas en la corporación Rand en el año de 1948, con el fin de obtener el consenso de un grupo de expertos sin contar con los efectos negativos de las reuniones de grupos. La técnica puede adaptarse a la estimación de costos de la siguiente manera:
- Un coordinador proporciona a cada experto la documentación con la definición del sistema y una papeleta para que escriba su estimación.
- Cada experto estudia la definición y determina su estimación en forma anónima; los expertos pueden consultar con el coordinador, pero no entre ellos.
- El coordinador prepara y distribuye un resumen de las estimaciones efectuadas, incluyendo cualquier razonamiento extraño efectuado por alguno de los expertos.
- Los expertos realizan una segunda ronda de estimaciones, otra vez anónimamente, utilizando los resultados de la estimación anterior. En los casos que una estimación difiera mucho de las demás, se podrá solicitar que también en forma anónima el experto justifique su estimación.
- El proceso se repite varias veces como se juzgue necesario, impidiendo una discusión grupal durante el proceso.
El siguiente enfoque es una variación de la técnica Delfi tradicional que aumenta la comunicación conservando el anonimato.
- El coordinador proporciona a cada experto la documentación con la definición del sistema y una papeleta para que escriba su estimación.
- Cada experto estudia su definición, y el coordinador llama a una reunión del grupo con el fin de que los expertos puedan analizar los aspectos de la estimación con él y entre ellos.
- Los expertos terminan su estimación en forma anónima.
- El coordinador prepara un resumen de las estimaciones efectuadas sin incluir los razonamientos realizados por algunos de los expertos.
- El coordinador solicita una reunión del grupo para discutir los puntos donde las estimaciones varíen más.
- Los expertos efectúan una segunda ronda de estimaciones, otra vez en forma anónima. El proceso se repite tantas veces como se juzgue necesario.
COCOMO.
El Modelo Constructivo de Costos (COnstructive COst Model) es una jerarquía de modelos de estimación para el software. Esta jerarquía está constituida por los siguientes modelos:
- El modelo COCOMO básico es un modelo univariable estático que calcula el esfuerzo (y el costo) del desarrollo de software en función del tamaño del programa expresando en líneas de código (LDC) estimadas.
- El modelo COCOMO intermedio calcula el esfuerzo del desarrollo de software en función del tamaño del programa y de un conjunto de “conductores de costo”, que incluyen la evaluación subjetiva del producto, del hardware, del personal y de los atributos del proyecto.
- El modelo COCOMO avanzado incorpora todas las características de la versión intermedia y lleva a cabo una evaluación de impacto de los conductores de costo en cada fase (análisis, diseño, etc.) del proceso de ingeniería de software.
Los modelos COCOMO están definidos para tres tipos de proyecto de software.
Modelo Orgánico. Proyectos de software relativamente pequeños y sencillos en los que trabajan pequeños equipos, con buena experiencia en la aplicación, sobre el conjunto de requisitos poco rígidos (por ejemplo, un programa de análisis termal desarrollado para un grupo calórico).
Modelo Semiacoplado. Proyectos de software intermedios (en tamaño y complejidad) en los que los equipos, con variados niveles de experiencia, deben satisfacer requisitos poco o medio rígidos (por ejemplo, un sistema de procesamiento de transacciones con requisitos fijos para un hardware de terminal o un software de gestión de base de datos).
Modelo Empotrado. Proyectos de software que deben ser desarrollados en un conjunto de hardware, software y restricciones operativas muy restringidas (por ejemplo, software de control de navegación para un avión).
Las ecuaciones del modelo COCOMO básico tienen la siguiente forma:
E = ab (KLDC) exp (bb)
D = cb (E) exp (db)
donde E es el esfuerzo aplicado en personas-mes, D es el tiempo de desarrollo en meses cronológicos y KLDC es el número estimado de Líneas de Código distribuídas (en miles) para el proyecto.
Las ecuaciones del modelo COCOMO intermedio toma la forma:
E = ai (KLDC) exp (bi) x FAE
donde E es el esfuerzo aplicado en personas-mes, KLDC es el número estimado de Líneas de Código distribuídas para el proyecto
viernes, 21 de febrero de 2014
Todos los días tengo una conversación con algún cliente que me dice, Ramón no puedo mas, cada vez que intento obtener información sobre mi industria o algún mercado nuevo me pasa lo mismo, no paro de recibir documentos, boletines, informes y noticias desde distintas fuentes y no soy capaz de leer más allá del titular…¿como voy a tomar decisiones acertadas si soy incapaz de estar al día?
El diagnostico es siempre el mismo, el cliente sufre de infoxicación aguda causada por google, twitter, linkedin, facebook etc…y otras muchas fuentes que consulta o informaciones que le llegan a su correo electrónico o escritorio.
EL PROBLEMA DE LA INFOXICACION
Lo cierto es que el problema de la infoxicación no es nuevo en el mundo en el que vivimos desde que Internet se generalizo. Es algo que simplemente ha ido a mas y en el futuro aumentará. Este es el verdadero problema de la infoxicación, que cada vez se agudiza más, dado que cada vez es mas fácil la divulgación de contenidos y la creación de estos, resulta que cada día es mas difícil mantenerse al día, por el volumen y la velocidad de circulación de la nueva información.
Esto solo es un aperitivo de lo que va ir llegando. Gracias al open data cada vez más, dispondremos de mas aplicaciones que utilizarán datos liberados por las administraciones públicas que harán que podamos acceder a más informaciones. ¿Las vas a ignorar solo por que no puedes leerlas? La mayoría de las veces la respuesta es un si. La técnica del avestruz es muy socorrida entre los humanos. Esto supone ignorar el problema y los riesgos que esto conlleva en vez de aprovechar la oportunidad. En muchas organizaciones no se tiene en cuenta los costes reales de la infoxicacion. Veamos cuales son estos.
LOS COSTES DE LA INFOXICACION
Infoxicacion o reducción de la productividad
¿Cuanto tiempo destinas al día para buscar y leer los títulos de los avisos en tu buzón de correo electrónico, boletines, revistas y bases de datos?. Seguro que estas pensando y te sale como mínimo una hora. Piensa que este es el tiempo medio que una persona dedica al día en su puesto de trabajo para estar al día de los cambios que suceden en su industria. Ahora multiplica esto por el numero de empleados en plantilla, luego por cinco días laborables, después por 4 semanas y finalmente por 11 meses de trabajo efectivo. Esto te dará un calculo aproximado del tiempo que tu organización destina a actualizarse con información que en el mejor de los casos es la adecuada, pero lo más probable es que no sea la mejor posible. Piensa ahora que a parte de esto cada vez existen más fuentes de información y más información a la que acceder. Lo cierto es que empezamos a marearnos. Lo lógico es que intentemos no detenernos demasiado en el problema por que haciendo los cuentas del tiempo y multiplicando por 20€ (el coste medio de un empleado por hora) la cifra es bastante importante.
Coste de oportunidad derivado de la infoxicacion
A parte del coste económico y mental que supone buscar información con la sensación de no estar consiguiendo mantenerte al día y saber que se te están pasando cosas por que cada vez hay más información, es necesario considerar el coste de oportunidad que esto supone para nuestra empresa. Es decir aquello que estoy dejando de hacer por destinar tantas horas a buscar y leer información pero sobre todo por las informaciones que me puedo estar perdiendo, por no ser capaz de leer la información relevante y que mis competidores si pueden estar obteniendo.
SOLUCION A LA INFOXICACION
Los que seguis este blog sabeis cual es la respuesta al problema de la Infoxicacion: Los sistemas de vigilancia e inteligencia competitiva. A los cuales dedico buena parte de mi actividad profesional y empresarial, dado que la mayoría de las soluciones de mi empresa están orientadas a ello. Para los que no estáis tan familiarizados con este concepto podéis consultar aqui algunos de los artículos sobre estos temas:
- La importancia de obtener información relevante
- Siete ventajas de contar con un sistema de vigilancia tecnológica
- Los cinco pilares de la vigilancia tecnológica
- Buscando información en 7 minutos artículo 1, artículo 2 y artículo 3
Los sistemas y metodologías basadas en la vigilancia e inteligencia competitiva resuelven el problema de la infoxicacion por que, permiten realizar una optimizada:
- Seleccion de fuentes relevantes
- Palabras calves adecuadas
- Automatizacion del proceso de captura de la información
- Comunicación o distribución de la información a las personas adecuadas
- Revisión e inclusión de nuevas fuentes identificadas
Esta es la forma en la que el problema de la infoxicación queda resuelto ya que me permite destinar 5 minutos a la lectura de las informaciones relevantes para mi ya que previamente hemos seleccionado las fuentes y filtrado los resultados de forma automática con la ayuda procesos, herramientas y personas.
Curador de contenidos
En muchas ocasiones hemos hablado en este mismo espacio de nuevas profesiones nacidas a la sombra del periodismo digital, de las redes sociales… Probablemente, la más conocida (y también la más demandada) es la de «community manager». Sin embargo, la web 2.0 ha generado otras necesidades que también han dado lugar a nuevas profesiones, quizás no tan conocidas como la anterior, pero no menos importantes. Una de ellas es la de «content curator», cuya traducción literal sería algo así como «curador de contenidos».
Para comprender mejor qué es un «content curator», mejor acudir a lo que dice Dolors Reig, experta en social media, en su blog «El Caparazón»: «De forma más genérica podríamos decir que un «content curator» es un intermediario crítico del conocimiento, es alguien que busca, agrupa y comparte de forma continua lo más relevante (separa el grano de la paja) en su ámbito de especialización. A diferencia de otras profesiones (creador, por ejemplo), su objetivo fundamental es mantener la relevancia de la información que fluye libre o apoyada en herramientas concretas para la creación de entornos informacionales. Como valor competitivo, el de mantener, en última instancia, «a la última» a la empresa/organización que le forme o contrate, en cuanto al conocimiento que ahora es vital para su supervivencia».
Sin embargo, hay quien opina que, realmente, esta labor no es nueva y que no es otra cosa que la que llevan haciendo los documentalistas durante años. Es el caso de Tomás Baiget, director de la revista «El Profesional de la Información», que asegura que «de vez en cuando gente externa (extraña, más bien) a nuestra invisible profesión inventa nuevos nombres para referirse a funciones que ellos acaban de descubrir, sin tener ni idea de que los bibliotecarios-documentalistas las hacemos desde hace muchos años […] Desde hace cosa de un año algunos han descubierto la gran novedad de que, dada la gran cantidad de información que hay por el mundo, se necesita alguien que se dedique a seleccionarla o filtrarla, y decidieron ponerle el nombre de «information curator o data curator».
Así, por ejemplo, la Universidad Carlos III de Madrid está impartiendo un curso de «content curator», y los profesores son todos del departamento de Biblioteconomía y Documentación. Además, en la definición del curso, dejan claro que «las facilidades de la tecnología, junto a una nueva cultura de creación y consumo de la información, están explosionando, de una forma ya inabarcable, el volumen de información que tenemos a nuestro alcance. Por otra parte, encontrar y crear contenido de calidad se ha convertido en una herramienta fundamental en las estrategias del marketing digital. En este ámbito, el «contenido de calidad es el rey», ya que es la «materia prima» necesaria para que las empresas y organizaciones puedan aportar valor y conectar con sus usuarios y clientes a través de los medios sociales. Así, nuevas capacidades, profesiones y herramientas están surgiendo para hacer frente a estas nuevas necesidades. Entre ellas surge con fuerza la curación de contenidos («content curation») y la figura del «content curator» que, como profesional experto en la metodología y herramientas para la selección, filtrado y distribución de contenido digital relevante, está llamado a ser una figura clave de la web 3.0»
Sea como fuere, estaríamos ante una nueva profesión con un gran futuro, máxime si tenemos en cuenta que, según los expertos, en un futuro próximo el contenido de la web se duplicará cada 72 horas. Por tanto, lo dicho. Un filón.
Leer más: Curador de contenidos por Ángel Valle - La Razón digital http://www.larazon.es/detalle_hemeroteca/noticias/LA_RAZON_464003/3968-curador-de-contenidos-por-angel-valle#Ttt1FCFQJFtQkGM8
En muchas ocasiones hemos hablado en este mismo espacio de nuevas profesiones nacidas a la sombra del periodismo digital, de las redes sociales… Probablemente, la más conocida (y también la más demandada) es la de «community manager». Sin embargo, la web 2.0 ha generado otras necesidades que también han dado lugar a nuevas profesiones, quizás no tan conocidas como la anterior, pero no menos importantes. Una de ellas es la de «content curator», cuya traducción literal sería algo así como «curador de contenidos».
Para comprender mejor qué es un «content curator», mejor acudir a lo que dice Dolors Reig, experta en social media, en su blog «El Caparazón»: «De forma más genérica podríamos decir que un «content curator» es un intermediario crítico del conocimiento, es alguien que busca, agrupa y comparte de forma continua lo más relevante (separa el grano de la paja) en su ámbito de especialización. A diferencia de otras profesiones (creador, por ejemplo), su objetivo fundamental es mantener la relevancia de la información que fluye libre o apoyada en herramientas concretas para la creación de entornos informacionales. Como valor competitivo, el de mantener, en última instancia, «a la última» a la empresa/organización que le forme o contrate, en cuanto al conocimiento que ahora es vital para su supervivencia».
Sin embargo, hay quien opina que, realmente, esta labor no es nueva y que no es otra cosa que la que llevan haciendo los documentalistas durante años. Es el caso de Tomás Baiget, director de la revista «El Profesional de la Información», que asegura que «de vez en cuando gente externa (extraña, más bien) a nuestra invisible profesión inventa nuevos nombres para referirse a funciones que ellos acaban de descubrir, sin tener ni idea de que los bibliotecarios-documentalistas las hacemos desde hace muchos años […] Desde hace cosa de un año algunos han descubierto la gran novedad de que, dada la gran cantidad de información que hay por el mundo, se necesita alguien que se dedique a seleccionarla o filtrarla, y decidieron ponerle el nombre de «information curator o data curator».
Así, por ejemplo, la Universidad Carlos III de Madrid está impartiendo un curso de «content curator», y los profesores son todos del departamento de Biblioteconomía y Documentación. Además, en la definición del curso, dejan claro que «las facilidades de la tecnología, junto a una nueva cultura de creación y consumo de la información, están explosionando, de una forma ya inabarcable, el volumen de información que tenemos a nuestro alcance. Por otra parte, encontrar y crear contenido de calidad se ha convertido en una herramienta fundamental en las estrategias del marketing digital. En este ámbito, el «contenido de calidad es el rey», ya que es la «materia prima» necesaria para que las empresas y organizaciones puedan aportar valor y conectar con sus usuarios y clientes a través de los medios sociales. Así, nuevas capacidades, profesiones y herramientas están surgiendo para hacer frente a estas nuevas necesidades. Entre ellas surge con fuerza la curación de contenidos («content curation») y la figura del «content curator» que, como profesional experto en la metodología y herramientas para la selección, filtrado y distribución de contenido digital relevante, está llamado a ser una figura clave de la web 3.0»
Sea como fuere, estaríamos ante una nueva profesión con un gran futuro, máxime si tenemos en cuenta que, según los expertos, en un futuro próximo el contenido de la web se duplicará cada 72 horas. Por tanto, lo dicho. Un filón.
Leer más: Curador de contenidos por Ángel Valle - La Razón digital http://www.larazon.es/detalle_hemeroteca/noticias/LA_RAZON_464003/3968-curador-de-contenidos-por-angel-valle#Ttt1FCFQJFtQkGM8
miércoles, 19 de febrero de 2014
¿Qué es una infografía?
Una infografía es una forma visual de ofrecer una información, con una presentación esquemática que resume datos y los explica a través de viñetas y gráficos sencillos de asimilar. Suelen tener un formato vertical.
¿Por dónde empezar? El planteamiento de la infografía
Antes de empezar a pensar en la parte técnica de una infografía, es importante plantearla de forma correcta, adaptándola a los destinatarios de la misma y creando así un esquema que permita plasmar la información de la forma más ordenada y coherente posible.
Así, se debe empezar pensando en el planteamiento u objetivo. Qué se quiere comunicar y qué información disponible existe para ello. Es el momento recopilar datos sobre el tema que se va a tratar.
Con la información recopilada, sea a través de una investigación primaria (por ejemplo encuestas) o secundaria (información ya elaborada), se pueden empezar a hacer los primeros bocetos de la infografía.
Es aquí donde se entra de lleno en la parte del diseño. Para empezar trabajando en el boceto se pueden utilizar diferentes alternativas de software gratuitas, desde las más simples incluidas en cualquier ordenador hasta las plataformas que encontramos en Internet enfocadas a la creación de diagramas. Algunos ejemplos válidos son Gliffy.com, Mock.com oiPlotz.com entre otros.
A diseñar
Ahora que los datos ya están recopilados, y el planteamiento de la infografía así como su esbozo han quedado definidos, es momento de ponerse manos a la obra a construirla, no sin antes recordar algunos aspectos clave. En primer lugar, no pueden olvidarse las fuentes. Estas dan fiabilidad y credibilidad a los datos aportados, aportando más valor a la infografía y por tanto más resultados de éxito si se pretende que se comparta.
También para que la información se pueda entender fácilmente pueden ser útiles los iconos. Hacen la información más amena junto con los gráficos y los colores y no tienen por qué ser una barrera para quienes tengan menos conocimientos básicos, puesto que existen páginas que albergan una gran variedad. Algunos ejemplos son IconArchive.com, Findicons.com oIconspedia.com.
A parte de los datos y ya desde un punto de vista de diseño, es importante crear un estilo y mantener una coherencia con los colores utilizados. De esta manera, se puede crear un estilo propio que identifique todas las infografías creadas por un mismo autor, creando algo similar a una imagen de marca aplicada a las infografías. La coherencia entre los colores es fundamental para que el resultado sea óptimo y los datos sean interpretados de manera correcta.
Herramientas para crear infografías
Y ahora llega la parte de puesta en escena. Mientras que para muchos puede parecer la parte más complicada, lo cierto es que podría ser la más sencilla teniendo en cuenta lo tedioso que puede ser llegar a recopilar la información en algunos casos.
Existen herramientas gratuitas a disposición de todos los usuarios dispuestos a crear infografías. Algunas de ellas son:
- Google Public Data Explorer: infografías a partir de datos públicos
- Hohli: una herramienta para crear gráficos circulares.
- Wordle: permite añadir de forma creativa diferentes grupos de palabras.
- Visual.ly: una forma sencilla de crear infografías con varios tipos de elementos en un mismo lugar.
viernes, 17 de enero de 2014
Conceptos (Normas, Estándares y Calidad)
Calidad
¿Qué es calidad?
R.W. Hoyer y Brooke
B.Y. Hoyer Tomado de la revista Quality Progress Julio, 2001 Reproducción
autorizada por ASQ Si usted camina a través de una planta manufacturera o de
ensamble en cualquier parte del mundo, verá lotes de partes que, excepto por
diferencias muy pequeñas, son idénticas. Las partes dentro de un lote en
particular son exactas, en el sentido de que todas están diseñadas para una
función en específico y son intercambiables con relación a dicha función.
Para satisfacer ese
propósito específico, dichas partes deben tener "alta calidad".
Aunque haya sido
simple el escribir la frase "alta calidad", y a pesar de que la
mayoría usamos el término "calidad" de una forma que nosotros pensamos
que tiene sentido y es entendible para cualquiera, descubriremos que una
definición útil de calidad, no es fácil de desarrollar.
Marco Conceptual
Existen, desde hace
varios siglos, estándares de calidad que no son sustancialmente diferentes a
los de las demás personas. Las estrategias y herramientas para aseguramiento de
la calidad pueden haber cambiado, pero las expectativas básicas de los
clientes, han sido prácticamente constantes durante mucho tiempo. Pensando que,
por ejemplo, Henry Ford, no tuvo un entrenamiento especial en aseguramiento de
calidad, creció en una cultura en la cual ya se trabajaba específicamente para
obtener excelente desempeño en productos y servicios. De hecho, fue hace casi
un siglo que él descubrió que podría obtener ventaja competitiva enfocando su
atención en la calidad. Aun cuando la demanda de calidad ha sido parte de la
naturaleza humana desde hace bastante tiempo, la cuantificación de la calidad y
el establecimiento de estándares formales de calidad son decididamente un fenómeno
del siglo XX. La atención sobre la calidad durante las últimas dos décadas, ha
creado un mercado global de consumidores enfocados también a la calidad.
Piensan que saben lo que significa, que la pueden reconocer cuando la ven y,
muy importante, esperan (inclusive demandan) calidad en cada producto y
servicio que compran.
Los filósofos de la
calidad Aunque todavía no se ha dado un acuerdo general sobre quién es filósofo
y quién no, se ha decidido examinar las perspectivas de estas personas:
• Philip B. Crosby
• W. Edwards Deming
• Armand V. Feigenbaum
• Kaoru Ishikawa
• Joseph M. Juran
• Robert M. Pirsig
• Walter A. Shewhart
•Genishi Tagushi
En general, la
definición de calidad que tienen estos expertos caen en dos categorías:
• El nivel uno de calidad
es una manera simple de producir bienes o entregar servicios cuyas
características medibles satisfacen un determinado set de especificaciones que
están numéricamente definidas.
•
Independientemente de cualquiera de sus características medibles, el nivel dos
en calidad de productos y servicios son simplemente aquellos que satisfacen las
necesidades de los clientes para su uso o consumo.
En resumen, el
nivel uno de calidad significa trabajar en las especificaciones, mientras que
el nivel dos significa satisfacer al cliente. (www.hacienda.go.cr, s.f.)
Normas de calidad
Nacionales e
Internacionales
Es un documento,
establecido por consenso y aprobado por un organismo reconocido (nacional o
internacional), que proporciona, para un uso común y repetido, reglas,
directrices o características para las actividades de calidad o sus resultados,
con el fin de conseguir un grado óptimo de orden en el contexto de la calidad.
Normas de Calidad Nacionales
• Normas Oficiales Mexicanas
• Normas Mexicanas
NMX-CC
En México las
normas de calidad son normas mexicanas emitidas por el INSTITUTO MEXICANO DE
NORMALIZACIÓN Y CERTIFICACIÓN, A. C. (IMNC), y son prácticamente una versión
traducida ISO 9000 “Sistemas de Aseguramiento de la Calidad SISTEMAS DE GESTIÓN
DE LA CALIDAD Dichas normas tienen como finalidad asistir a las organizaciones,
de todo tipo y tamaño, en la implementación y la operación de sistemas de
gestión de la calidad eficaces y se clasifican en:
• NMX-CC-9000-IMNC
• NMX-CC-9001-IMNC
• NMX-CC-9004-IMNC
NMX-CC-9000-IMNC:
Describe los fundamentos de los sistemas de gestión de la calidad y especifica
la terminología para los sistemas de gestión de la calidad.
NMX-CC-9001-IMNC:
Especifica los requisitos para los sistemas de gestión de la calidad aplicables
a toda organización que necesite demostrar su capacidad para proporcionar
productos que cumplan los requisitos de sus clientes y los reglamentos que le
sean de aplicación y su objetivo es aumentar la satisfacción del cliente.
NMX-CC-9004-IMNC:
Proporciona directrices que consideran tanto la eficacia como la eficiencia del
sistema de gestión de la calidad. El objetivo de esta norma es la mejora del
desempeño de la organización y la satisfacción de los clientes y de otras
partes interesadas.
Normas de Calidad Internacionales
Las principales
organizaciones internacionales, emisoras de normas de calidad son: ISO
(Organización Internacional de Estándares) y IEC (Comisión Electrotécnica
Internacional).
ISO La Organización
Internacional de Normalización es una federación mundial de organismos, la ISO
colabora estrechamente con la Comisión Electrotécnica Internacional ( IEC ) en
lo relativo a la normalización electrotécnica.
Las normas ISO-9000
son normas para sistemas de aseguramiento de calidad. Su utilidad radica en que
es un estándar para proporcionar a un consumidor, la confianza de que un
producto o servicio determinado cumple con los requisitos de calidad
especificados. La nueva familia ISO 9000 versión 2000 consiste en las
siguientes
Normas:
• ISO 9000:2000
• ISO 9001:2000
• ISO 9004:2000
• ISO 19011:2002
ISO 9000:2000:
Describe los principios y terminología de los sistemas de gestión de calidad.
ISO 9001:2000:
Especifica los requisitos para los sistemas de gestión aplicables a toda
organización que necesite demostrar su capacidad para proporcionar productos
que cumplan los requisitos de sus clientes y los reglamentarios. Su fin es la
satisfacción del cliente. Es la única norma sujeta a certificación.
ISO 9004:2000:
Proporciona directrices que consideran tanto la eficacia como la eficiencia del
sistema de gestión de la calidad. Su objetivo es la mejora en el desempeño de
la organización.
ISO 19011:2002:
Proporciona orientación relativa a las auditorías a sistemas de gestión de la
calidad y de gestión ambiental.
Los beneficios
tangibles de tales sistemas de la calidad incluyen:
• Mejor diseño del producto.
• Mejor calidad del producto.
• Mejora de la confianza entre los
clientes.
• Mejora de la imagen y credibilidad
de la empresa en los mercados internacionales, lo cual es esencial para el
éxito en la actividad exportadora. (www.itescam.edu.mx, s.f.)
Estándares
Definición
Estándar puede ser conceptualizado como la definición clara de un
modelo, criterio, regla de medida o de los requisitos mínimos aceptables para
la operación de procesos específicos, con el fin asegurar la calidad en la
prestación de los servicios de salud. Los estándares señalan claramente el
comportamiento esperado y deseado en los empleados y son utilizados como guías
para evaluar su funcionamiento y lograr el mejoramiento continuo de los
servicios. Los estándares requieren ser establecidos con el fin de contar con
una referencia que permita identificar oportunamente las variaciones
presentadas en el desarrollo de los procesos y aplicar las medidas correctivas
necesarias.
Procesos
Definición
Un proceso se puede definir como una serie de actividades, acciones o
eventos organizados interrelacionados, orientadas a obtener un resultado
específico y predeterminado, como consecuencia del valor agregado que aporta
cada una de las fases que se llevan a cabo en las diferentes etapas por los
responsables que desarrollan las funciones de acuerdo con su estructura
orgánica.
Instituciones
Definición
Una institución es cualquier sistema de reglas aceptadas colectivamente
(procedimientos, prácticas) que nos permite crear hechos institucionales. Esas
reglas tienen típicamente la forma de X cuenta como Y en C, donde a un objeto,
persona o estado de cosas X se le asigna un status especial, el status Y, tal
que el nuevo status hace posible que la persona u objeto desempeñe funciones
que no podría realizar únicamente en virtud de su estructura física, pero
requiere como una condición necesaria la asignación de tal status
Conclusión
Las normas
internacionales ISO son las normas que controlan la calidad y la gestión
continua de calidad, y han sido establecidas por la llamada Organización
Internacional para la Estandarización (ISO) por sus siglas en inglés
(International Organization for Standardization). Se aplican en cualquier tipo
de organización, institución o actividad sistemática que esté orientada a
básicamente a la producción de bienes o servicios. Se componen principalmente
de estándares y guías que estén relacionados con todos los sistemas de gestión
y herramientas específicas.
Estas normas son
muy importantes para toda organización o empresa que se quiere distinguir de
las demás puesto que esta norma es muy complicada de conseguir y por lo tanto
da a la empresa un gran reconocimiento nacional e internacional, ya que los
compradores de los productos ya sean nacionales o extranjeros, buscan siempre
productos de calidad y el prestigio de la norma “ISO” es una gran garantía y no
dudan en invertir su capital en estas organizaciones que se hacen notar por
haber conseguido dicha certificación.
Estos son algunos
de los beneficios que las normas ISO dejan a las empresas u organizaciones.
• El monitoreo de los procesos
principales asegurando que sean efectivos.
• Mantiene los registros adecuados de la gestión, de los
procesos y de los procedimientos.
• Mejora la satisfacción tanto de los
clientes o los usuarios como de la empresa.
• Mejora constantemente los procesos,
operacionales y de calidad.
• Reduce en gran parte los rechazos e
incidencias en la producción.
En conclusión son
muy buenos los beneficios que una norma como esta trae a la empresa, es bien
sabido que el proceso de certificación es muy complicado, para ello se necesitan
algunos de los siguientes pasos y procesos.
Para ser
certificado bajo la norma ISO 9000, todas las organizaciones deben haber
elegido el alcance de la actividad profesional que vaya a ser registrada,
seleccionar un registro, someterse a una auditoria, y después de haber cumplido
con éxito, tener una visita anual de inspección para seguir manteniendo la
certificación. En caso de que el auditor
encontrase áreas de incumplimiento, dicha organización tiene hasta un plazo
para adoptar o corregir medidas preventivas o correctivas, sin perder la
vigencia de cierta certificación o la continuidad en el proceso de esta
certificación dependiendo el caso.
Como hemos
entendido esta norma está planeada para mejorar día a día todos los procesos
productivos de las empresas que su objetivo es alcanzar las mejores
proyecciones de ventas y más aún posicionarse en un mejor mercado.
Bibliografía
www.hacienda.go.cr.
(s.f.). Obtenido de
www.hacienda.go.cr/centro/datos/Articulo/Qué%20es%20calidad.pdf
www.itescam.edu.mx.
(s.f.). Obtenido de
www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r56132.PPT
Existen dos tipos de factores:
- · Factores que pueden ser medidos directamente (errores/KLDC/unidad de tiempo).
- · Factores que solo pueden ser medidos indirectamente (la facilidad de uso o de mantenimiento).
En ambos casos se puede medir la calidad, debemos comparar
el software (documentos, programas, etc.) con alguna referencia y llegar a una
indicación de calidad.
Loa factores desarrollados según el modelo de McCall, se
centra en tres aspectos importantes de unos productos de software:
- · Sus características operativas.
- · Su capacidad para soportar los cambios.
- · Su adaptabilidad a nuevos entornos.
Corrección: mide el grado en que un programa satisface sus
especificaciones y consigue los objetivos del usuario.
Fiabilidad: mide el grado en que se puede esperar que un
programa lleve a cabo sus funciones esperada con la precisión requerida.
Eficiencia: mide la cantidad de recursos de computadora y de
código requerido por un programa para que lleve a cabo las funciones
especificadas.
Integridad: es el grado en que puede controlarse el acceso
al software o a los datos por personal no autorizado.
Facilidad de Uso: es el esfuerzo requerido para aprender un
programa e interpretar la información de entrada y de salida.
Facilidad de Mantenimiento: es el esfuerzo requerido para
localizar y arreglar programas.
Facilidad de Prueba: es el esfuerzo requerido para probar un
programa.
Flexibilidad: es el esfuerzo requerido para modificar un
sistema operativo.
Portabilidad: es el esfuerzo requerido para transferir un
software de un hardware o un entorno de sistemas a otro.
Reusabilidad: es el grado en que un programa (o partes de un
programa) se puede reutilizar en otro.
Facilidad de Interoperación: es el esfuerzo requerido para
asociar un programa a otro. (Universidad de Morón - Facultad
de Informática)
La administración de calidad definir procedimientos y
estándares a utilizar en el desarrollo de software y comprobar que todos los
ingenieros de software lo sigan.
Los buenos administradores tienen como propósito desarrollar
una “cultura de calidad”, en donde cada integrante del grupo es motivado para
que logre un alto nivel de calidad del producto a desarrollar.
La administración de calidad se estructura en tres
actividades principales:
Es el establecimiento de un marco de trabajo de
procedimientos y estándares organizacionales que conduce a desarrollar un
software de calidad.
Los procedimientos de aseguramiento de calidad se documentan
en un manual de calidad que define el proceso de desarrollo.
Existen dos tipos de estándares:
- · Estándares del Producto: son estándares del producto, como la estructura del documento de requerimientos, el documento de codificación que define como utilizar un lenguaje de programación, estándares de documentos.
- · Estándares del Proceso: son estándares que definen los procesos a seguir durante el desarrollo. Incluyen definición de los procesos de especificación, de diseño, y de validación, y una descripción de la documentación a generar.
Se inicia en las primeras etapas de desarrollo en forma
independiente de la planificación del proyecto general. Define la calidad del
producto deseado, define como valorar la calidad (porque para los
desarrolladores pesan distintos factores de calidad).
Estructura del Plan de Calidad:
Introducción del Producto: contiene la descripción del
producto a desarrollar, el mercado al cual se dirige y las expectativas de
calidad del producto.
Planes del Producto: contiene la fecha de terminación del
producto, lo recursos necesarios, las responsabilidades junto con la
distribución y servicio.
Descripción del Proceso: contiene los procesos de desarrollo
y de servicios a utilizar para el desarrollo y la administración del producto a
desarrollar.
Metas de Calidad: contiene las metas y planes de calidad
para el producto a desarrollar, incluye una identificación y una justificación
de los atributos de calidad importantes.
Riesgos y Administración de Riesgos: contiene los riesgos
claves que pudieran afectar la calidad del producto de desarrollo y el plan de
contingencias.
Implica vigilar el procedimiento de desarrollo para asegurar
que se sigan los procedimientos de aseguramiento y los estándares de calidad.
El proceso de control de calidad tiene su propio conjunto de
procedimientos e informes a utilizar durante el desarrollo.
Existen varios métodos de para validar la calidad de un
proceso o producto, el más utilizado son las Revisiones Técnicas Formales. (Universidad de
Morón - Facultad de Informática)
Universidad de Morón - Facultad de Informática, C. D.
(s.f.).
Suscribirse a:
Entradas
(
Atom
)